Manualillo de produccion musical
Upcoming SlideShare
Loading in...5
×
 

Manualillo de produccion musical

on

  • 3,066 views

 

Statistics

Views

Total Views
3,066
Views on SlideShare
3,066
Embed Views
0

Actions

Likes
3
Downloads
211
Comments
0

0 Embeds 0

No embeds

Accessibility

Categories

Upload Details

Uploaded via as Adobe PDF

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

Manualillo de produccion musical Manualillo de produccion musical Document Transcript

  • Aprende a comprimir tus señalesIntroducción: la dinámica de una señal¿Qué es lo básico? Antes siquiera de hablar de compresión, debemos dejar claros algunosconceptos sobre la dinámica de una señal de audio; por "dinámica" entendemos lasvariaciones de nivel de una señal en el tiempo (una cantante de ópera que haga continuoscrecendos y decrecendos tendrá una dinámica muy acusada; un pitido de silbato mantenido almismo volumen no tendrá dinámica alguna).· Nivel de ruido de fondo: este es el nivel donde encontramos el ruido de cinta y de línea,los ruidos eléctricos, etc.· Nivel nominal: sería el nivel más apropiado para grabar tu señal de manera que haya unamínima distorsión (el momento en que la señal "pica" en el rojo; es decir, sobrepasa el umbralmáximo admitido) y que el nivel de ruido de fondo sea superado.· Relación señal-ruido: la distancia entre el nivel de ruido y el nivel nominal.· Nivel máximo: se alcanza cuando la señal entrante comienza a distorsionar.· Headroom: la diferencia entre el nivel nominal y el nivel máximo; es tu "zona deseguridad", el último espacio que tienes antes de que suceda la distorsión.· Rango dinámico: todo el nivel que puede ocupar la señal, desde el nivel de ruido hasta elnivel máximo.La compresiónAhora que hemos explicado estos conceptos elementales, podemos empezar a hablar decompresión. Supongamos que estas en tu estudio grabando unas tomas de sintetizadores,voces o instrumentos. Has ajustado un nivel adecuado para grabarlos, es decir, deberías estarcerca del nivel nominal (superando el ruido de fondo y cerca de la distorsión, pero sin tocarla).Esto es un escenario ideal, pero lo más normal es que, si prestas atención a tu indicador deseñal, veas como se pone en el rojo alguna vez (distorsión).Esto dependerá de la naturaleza de la fuente que estés grabando: por ejemplo, imagina quegrabas una voz muy sentida, con momentos de murmullo y repentinas subidas de nivel. Esmuy fácil que saltes al rojo en estas circunstancias. Podrías pensar "bueno, si estoy atento alos cambios de nivel, puedo anticiparme y subir y bajar el volumen de entrada cuando serequiera"... Has pensado bien, pero no eres del todo práctico: deja que te ayude uncompresor.Un compresor monitoriza la señal de entrada y actúa bajando el nivel cuando se alcanza ladistorsión, o subiéndolo si la señal cae demasiado baja. Esta es la definición de andar porcasa; para completarla, podemos decir que el compresor lee la señal de entrada, y luego, deacuerdo con el ratio de compresión que tú has configurado, reduce la señal que de otramanera distorsionaría. Esto te permite mantener la señal a un nivel manejable y grabable sinpicos imprevistos.Alto, ¿qué es eso del "ratio"? Es uno de los parámetros esenciales de un compresor. Pasamosa explicarte cuáles son los controles básicos de los compresores, y así irás descubriendo cómofuncionan (en la foto, el Nanocompressor de Alesis)
  • · Threshold: este es el nivel (en decibelios, dB) a partir del cual el compresor empieza a actuar. Para que entiendas cómo actúa, debemos hablar un momento de los niveles de una señal. Quédate con la idea de que un fader colocado en la marca de 0 dB está dejando pasartoda la señal "tal cual", sin restarle o añadirle ganancia. Digamos que 0 dB se identifica con la imagen "real" del sonido que entra. Los valores positivos (+1 dB, +2 dB...) indican que estamos añadiendo ganancia a la señal original, y los negativos (-1 dB...) que estamos restándosela. Si ajustamos el threshold del compresor a -5 dB por ejemplo, le estamos diciendo que, cuando la señal entrante alcance ese nivel, empezará a ser comprimida. Por ello, cuanto mas bajemos el threshold, más comprimiremos la señal. · Ratio: se da en valores de proporción, como 2:1, 3:1, 4:1, etc. Supongamos que colocas el ratio en 3:1. Lo que sucederá es que por cada vez que tu señal entrante supere en 3 dB al nivel de threshold, el compresor sólo permitirá que pase 1 dB de señal. Tu pensarás "de acuerdo, pero si está dejando pasar un decibelio cada vez, entonces sobrepasará de todosmodos el nivel de threshold". Evidentemente; el threshold es una marca de referencia, no una "guillotina" que corta todo lo que pasa por ella. Se da por hecho que el threshold y el ratio deben ir relacionados; debes configurar un nivel de threshold lo bastante bajo, teniendo en cuenta el ratio, para que los dB que pasen no lleguen a distorsionar, saliéndose por encimaden? 0 dB. Aquí entra en juego el concepto de headroom; el "espacio de seguridad" al que nos referíamos. Si tienes un headroom amplio, podras jugar con ajustes más extremos. Si estás en trance permanente de distorsionar la señal, tendras que manejar estos controles con mayor precisión. La técnica más recomendable es ajustar el ratio primero, y luego ir moviendo el threshold hasta que notes que la señal empieza a comprimirse (esto lo verás fácilmente en losmedidores de tu mesa, cuando veas que las distorsiones de la señal empiezan a desaparecer, cayendo el nivel a un rango más uniforme). Ten clara una cosa: si tu señal es demasiado débil, y el threshold está demasiado alto, nunca funcionará el compresor. Si tu señal, digamos, solo alcanza cotas de -5 dB y el threshold está a -2 dB, es evidente que el compresor no actuará. · Ataque (attack): Este parámetro decide con qué rapidez actuará el compresor cuandoaparezcan los picos (cuando la señal supere el umbral de threshold). Nos servirá para adaptarel funcionamiento del compresor a la naturaleza de la fuente de sonido. Por ejemplo: algunos instrumentos tiene un ataque muy rápido (es decir, suenan de inmediato, tan pronto como son tocados). Así pues, para este tipo de sonidos (como los de bajo o bombo), necesitarás que el compresor actúe rápidamente, para que no se le escape ningun pico (tendrías que ajustar el ataque a un valor bajo o nulo).· Liberación (release): El parámetro de liberación marca la velocidad con que el compresor deja de actuar sobre la señal una vez que ésta, despues de picar, ha bajado ya del nivel de threshold (cuando ya no necesita ser comprimida). Si ajustas la liberación a un valor largo, conseguirás una señal más sostenida. Si es corto, la señal caerá de nivel más rapidamente. · Ganancia de salida (output gain): Cuando has ajustado ya el threshold y el compresor está actuando, tu nivel nominal se verá reducido dependiendo de la cantidad de compresión que apliques, y así la señal, aunque comprimida, se escuchará con menor volumen. Este parámetro se utiliza para corregir ese efecto y restablecer el nivel de nuevo. Usa este ajuste con cuidado: aumentando de nuevo el nivel, estás aumentando también el nivel de ruido defondo que llega aumentado después de la compresión. Para evitar esto, procura que llegue la mayor cantidad de señal pura posible al compresor, con el mínimo ruido. · Knee: Este parámetro no lo llevan todos los compresores, pero no es raro encontrárselo. Hay dos tipos de "knee" (rodilla): hard-knee y soft-knee. El ajuste hard-knee supone que laseñal será comprimida de inmediato en la proporción marcada por el ratio tan pronto alcance el nivel de threshold. El ajuste soft-knee hace esto de una manera más suave, aplicando la compresión no toda de golpe, consiguiendo así un sonido menos abrupto. Típicamente, los sonidos que requieren pegada, como el bajo y el bombo, se comprimen con "hard-knee". Algunos compresores te permiten también escoger valores intermedios entre estos dos extremos, para controlar mejor el sonido.Comprimiendo en la prácticaEl uso de la compresión dependerá mucho de tus gustos personales. En la música de baileactual y en ciertos estilos se utilizan configuraciones extremas para darle gran pegada a lossonidos, pero puede n?que tú no necesites eso. Una compresión extrema puede hacer una
  • mezcla demasiado agresiva, pero también, una compresión escasa puede hacer muy "blando"el sonido. Como siempre, la solución está en probar distintas configuraciones hasta alcanzarun resultado que te satisfaga.Para darte una guía, aquí tienes algunos ajustes recomendados, en general, para distintos tipos de señales: · Bajo: Prueba a empezar con un ratio de 4:1 y un ataque y liberación rápidos. Normalmente se prefiere la compresión hard-knee porque el sonido del bajo suele requerir pegada y potencia, pero también depende del estilo. Quizás te convenga una soft-knee para un bajo de jazz en un tema suave y tranquilo. · Guitarra: Empieza con un ratio de 2:1 para guitarras acústicas, o un 3:1 o 4:1 para guitarrasdistorsionadas. Para conseguir un sonido más sostenido, intenta un ratio de 4:1 ratio, con unataque rápido y liberación lenta. Cuando tengas esos ajustes preparados, toca la nota quequieres sostener, y aumenta el ratio hasta que el sonido se sostenga tanto como deseabas.· Percusión: Las señales de percusión se comprimen muy a menudo debido a sus ataquesrápidos. Prueba a comprimir la caja, que es el sonido que más suele distorsionar porque cadagope de caja sobresale por encima de todos los demás con mucha facilidad. Intenta un ratiode 3:1, y usa un ataque y liberación rápidos. Si la señal continúa distorsionando, prueba ratiosmayores (la foto que te incluimos aquí muestra un compresor de Logic configurado para unacaja). Este método es válido también para los timbales. Para lon?s platillos, prueba un ratio de2:1 con ataque rápido y liberación lenta, para mantener así el desvanecimiento natural delsonido de los platillos.· Voces: Como en la percusión, es habitual comprimir las señales de voz. El ratio varía concada cantante, dependiendo del tipo de voz (gritona y potente, suave y tranquila, etc). Loscantantes que no hacen grandes altibajos con su voz tendrán una dinámica mas pequeña yrequerirán por ello menos compresión. Prueba para empezar un ratio de 2:1, con el ataquerápido, y liberación media-larga. Aumenta luego el ratio hasta que tengas dominados los picosde distorsión.ConclusiónEn general, debes usar la compresión para situar las señales correctamente en la mezcla, paradarles la presencia necesaria y para dominar sus subidas y bajadas de nivel. Otros la utilizantambién con intenciones creativas, o para conseguir un efecto deliberado, como por ejemplouna gruesa y potente línea de bajo que marque el ritmo.Podría decirse que la compresión es un arte que solo dominarás con mucha práctica. Tu oídoserá la mejor guía: prueba diferentes ajustes y configuraciones hasta alcanzar el sonido queestabas buscando.
  • Conceptos básicos sobre la mezcla IntroducciónLa mezcla es uno de los procesos más delicados y creativos de la producción de una canción. Elobjetivo es conseguir un reparto equilibrado de las frecuencias, volúmenes y planos de losinstrumentos/voces de forma que la escucha sea agradable y/o apropiada a lo que se intentatransmitir con cada canción. Para ello se controla el espectro de cada instrumento (ecualización), ladinámica (volumen, compresión, expansión, limitación) y la profundidad (reverberación, retardo).Hay varios factores a tener en cuenta, muy importantes, antes de adentrarnos en el proceso de lamezcla...Reproducción y monitorizaciónMuchas veces olvidado, el sistema de reproducción y monitorización(tarjeta de sonido + amplificador + altavoces) es lo más importante delsistema. El tener una correcta referencia es la mejor de las ayudas paradeterminar el sonido de una pista. Debido a que cada sistema deescucha es diferente y no existe ni habitación perfecta ni monitoresinfalibles, en los estudios se suele tener varias parejas de monitores dediferentes tamaños y calidades para conseguir el mejor sonido posible.Un amplificador que no distorsione la señal (algunos monitores lostrae incorporado) y una tarjeta de sonido con una buena señal ruido yrespuesta en frecuencia (la mayoría) completan el paquete.La colocación de los monitores y las reflexiones en la sala son factoresmuy importantes. Unos altavoces muy cerca de la pared sobrecargaránde graves tu escucha, de forma que las mezclas sonarán faltas de esas frecuencias. Así mismo, unahabitación con reflexiones incontroladas creará eco o realzará alguna frecuencia.Los efectosExisten un grupo de efectos básicos y de su calidad dependerá en mayor o menor medida la calidaddel resultado. Como antes se comentó, los más importantes son la dinámica, ecualización yretardo/reverberación, imprescindibles para acometer cualquier mezcla. Debido al auge de lainformática, la mayoría de las veces se usan efectos software o la combinación de ambos.No existen reglas fijas sobre su uso, aunque daré a lo largo del tutorial ajustes “estándar”. Paraprofundizar más, recomiendo la lectura de otros artículos de la web. Los efectos se pueden usar de dos formas, como inserción o como envío. En el primer caso elefecto sólo actúa sobre la señal de entrada (una pista o un grupo de ellas). En el segundo caso,puedes elegir de cada pista qué cantidad de esta debe ser afectada por el efecto mediante un controlde envío.Efectos de inserción suelen ser los compresores, la ecualización o distorsión. Efectos de envíosuelen ser la reverberación, retardo (delay) o el coro (chorus), aunque insisto en que no hay reglasfijas.El factor humanoLa mezcla no es un proceso científico, depende del tipo de canción y del gusto del ejecutante.Además, hay otros factores importantes que influyen negativamente, como el cansancio auditivo o
  • el consumo de drogas. El entrenamiento es el arma más poderosa y, en tiempos en donde latecnología está al alcance de todos, decisiva. PreparaciónHay una serie de pasos útiles antes de comenzar una mezcla. En primer lugar es muy recomendableescuchar unos minutos de tu música favorita para ir “calibrando” tu audición con respecto a losmonitores que tengan. Esto es especialmente útil cuando el sistema a usar no es el habitual o estásfuera de casa.Las pistas del tema deberían estar bien alineadas y organizadas dentro del sistema multipistas autilizar. Para acelerar el proceso se puede “patchear” o configurar algún efecto general, tipo reverbo delay.Hoy en día todo el material, exceptuando el dirigido a televisión o cine, suele estar mezclado enestéreo. Tras muchos años experiencia y varios centenares de mezclas a mis espaldas puedo decirsin temor a equivocarme que se debe mezclar siempre en mono. La razón es que en mono es mássencillo ajustar la ecualización y equilibro de todas las pistas. Además, se ocupa todo el espectroantes, de forma que al volver al estéreo el sonido es más amplio y espacioso. Si se realiza el procesodirectamente en estéreo, es más sencillo sobrecargar la mezcla. Una vez que se haya ajustado losvolúmenes y el espectro, se puede continuar en estéreo y hacer las correcciones pertinentes.Los pasos que voy a describir están orientados para una mezcla pop-rock más o menos estándar ypueden ser aplicados a todos los demás estilos. La mejor forma de aprender es trabajar conreferencias, es decir, siguiendo estos pasos ir buscando el sonido de un disco con sonido similar a loque buscas.¡Comencemos! La vozHay muchas formas de enfrentar una mezcla. Hay quien prefiere empezar por la percusión y otrospor la voz. Aunque suelo cambiar el enfoque dependiendo del material a mezclar, yo suelo empezarpor esta última, ecualizando, comprimiendo y ajustando todos los detalles hasta que suena de formacorrecta y con un volumen más o menos constante. Un poco de reverberación y retardo nunca levienen mal, pero es algo que suelo añadir más adelante.Un defecto importante es la silibancia, que se corrige con un deeser . El deeser es un compresorencadenado ( side chain ), en el que la señal de disparo es la misma de entrada filtrada para resaltarla silibancia. De esta forma, cuando se produce el defecto, actúa el compresor. La silibancia sueledarse entre 5 y 8 Khz.Cuando la voz va haciendo coros lo mejor es tener un bus con todos las pistas y comprimirlos yecualizarlos juntos.Panoramización (Pan): La voz principal debe ir siempre al centro. Los coros se suelen abrir enestéreo un poco, pero no demasiado.
  • Ecualización (EQ) recomendada: un recorte de graves (filtro paso alto), sobre 200 con una curvasuave para mejora la definición y entre 7.5 y 10 Khz para darle brillo. En el caso de los coros, sepuede cortar más arriba (400-500 Hz). Esto hará que se empasten mejor.Dinámica (Din) recomendada: compresor, ratio de entre 2,5:1 a 4:1, con un ataque ydesvanecimientos moderados. Deeser para corregir la silibancia.Efectos (FX) recomendados: Reverberación tipo placas ( Plate ), predelay 30 ms y tiempo dereverberación de 1.5 segundos. Recorte de graves de la reverberación hasta 400 Hz. Retardo estéreosin realimentación ( feedback ), con tiempos de 20 y 30 ms. La voz puede llevar otros retardos oreverberaciones a la vez, para adecuarla al estilo del tema.La voz suele ser el elemento principal, por lo que es recomendable usar el mejor compresor yecualizador disponible. La percusiónEn la mayoría de los estilos musicales, la percusión y el bajo son los elementos que llevan el pesode la canción y más concretamente la batería, por lo que será nuestro siguiente elemento a tener encuenta.La batería, acústica o electrónica, consta habitualmente de los siguientes elementos: bombo, caja,plato de charles (o hi-hat), timbales y platos, que suelen ser microfoneados indivudalmente (inclusocon varios micrófonos, como la caja o el bombo). Además, cuando estamos mezclando una bateríaacústica contaremos con las señales de overhead (micros situados sobre la batería), ambiente (monoo estéreo) y PZM (micrófonos piezoeléctricos que se usan para grabar ambientes).Hay cientos de formas de mezclar una batería. La más sencilla empieza ajustando el bombo con lasiguiente cadena:Puerta de ruido -> EQ -> CompresorLa puerta de ruido sirve para cortar aislar los bombos y evitar que se cuele el resto de losinstrumentos. No existen ajustes mágicos, pero se puede obtener mejor resultado si tiene unafunción de encadenado (sidechain) ajustada para actuar sólo con las frecuencias graves.BomboPan: Siempre al centro, para evitar el cambio de peso de la canción. Antiguamente, con elnacimiento del estéreo se situaba en alguno de los lados, muy abiertos. Hoy en día sólo se hacecuando se busca un sonido retro.EQ: 80Hz es la zona de la pegada, por lo que se puede realzar si le falta. 250 Hz es una frecuenciabastante delicada, suele chocar con el bajo, por lo que se puede recortar si vemos problemas. 1 – 5Khz es ideal para darle presencia.Din: Puerta de ruido y compresor. El compresor debe tener ataque y decaimiento rápidos, con unratio alrededor de 4:1.
  • La caja suele grabarse con dos micrófonos, uno para recoger la parte superior y otro para labordonera y se tratan independientemente. Un detalle a tener en cuenta es la fase, pues a veces seproducen cancelaciones entre los dos micros, por lo que habría que invertirla en uno de ellos. Lacadena de efectos es la misma al bombo y el tratamiento de dinámica es similar.CajaPan: Al centro.EQ: Cada caja es un mundo, pero hay frecuencias clave. 100 Hz para darle más cuerpo, entre 250 y750 Hz para cajas que suenen acartonadas y 5 Khz para darle brilloDin: Puerta de ruido y compresor con valores similares a los del bombo.FX: Un poco de reverberación brillante, la misma que el bombo pero en mayor cantidad. En ciertosestilos se suele usar también una reverberación de tipo “ gated ” con un retardo de unos 40 ms. Estetipo de reverb se hizo popular gracias a la canción “In the air tonight” de Phil Collins. Consiste enuna reverberación con una puerta de ruido, que corta la cola.Los timbales son bastante problemáticos debido a que esos micros recogen el resto del set . Partedel problema se resuelve mediante una puerta de ruido, aunque lo más recomendable en un sistemapor ordenador es editar cada pista recortando los momentos donde no aparezcan.Para el resto, el tratamiento es similar al de la caja.TimbalesPan: Se recrea la posición natural de los timbales.EQ: 100 Hz para darle cuerpo. Recortar entre 300 y 750 Hz para evitar que los timbales suenenacartonados.FX: Igual que la caja.Los overheads es una pista estéreo (o dos mono) que contiene el sonido de toda la batería desdearriba. Dependiendo de su colocación y del tipo del micro, lo contendrá de forma más o menosequilibrada, por lo que su utilidad es variada. En muchos casos se usa sólo para recoger el sonido delos platos (cortando graves hasta 1 Khz) o para añadir ambiente al resto de los elementos, encombinación con los otros micros más lejanos.OverheadsPan: Totalmente abiertos o en estéreo.EQ: Se pueden reforzar sobre 8 Khz o más para darle más aire. Dependiendo de su uso, se suelecortar por debajo de 250 Hz para evitar cancelaciones de fase o más arriba si se quiere sólo losplatos.Din: Un poco de compresión con ataque y decaimiento largos y no mucho más de 3:1 de ratiomejoran la dinámica.FX: Nada o un poco de reverb .Si tenemos pistas individuales para cada plato y para el charles, podemos usarlas para reforzar losoverheads .Todos se tratan de forma similar: se recorta hasta 400 Hz y un poco de reverberación.
  • PlatosPan: replicando su posición real.EQ: Recorte hasta 400 Hz. Se puede reforzar entre 8 y 15 Khz para darles más brillo o aire.Din: No precisan compresor en muchos casos, pero se puede hacer para controlar más la dinámica oañadir más sostenimiento.FX: Nada o un poco de reverberación.Las pistas de ambiente y PZM sitúan la batería en el contesto de la habitación donde fue grabada, yen muchos casos sustituye a la adicción de reverberación. El tratamiento es idéntico al de losoverheads. El bajoEl elemento conductor de la armonía y posiblemente uno de los más sencillos de mezclar. Es muyimportante que la grabación sea la correcta y aplicar una buena dosis de compresión durante lamezcla. Al contrario de lo que muchos piensan, no hay que recortar nunca en graves (a menos quesature, claro). Un refuerzo en 100 Hz para darle más cuerpo y entre 2 y 3 Khz para darle máspresencia en la mezcla. Importante no forzar sobre 250 Hz demasiado porque, aunque en unosaltavoces pequeños suene mejor, embarraría la mezcla.Pan: Centrado, junto al bombo, la caja y la voz, son la base de la canción.EQ: 100 Hz para darle más cuerpo. Entre 2 y 3 Khz para darle más presencia.Din: Ataque y decaimiento largos. 4:1 de ratio es un buen punto de partida.FX: Un poco de saturación de válvulas suele hacer mucho bien. En algunos estilos en los años 80 sele agregaba efecto de coro o flanger, etc, que no le hace demasiado bien en la mayoría de los casos,exceptuando el wah-wah. Las guitarras eléctricas
  • Debido a la diversidad de estilos y técnicas, sería muy difícil establecer reglas para colocarlascorrectamente en la mezcla. Como norma general, se deben cortar por debajo de 150-200 Hz paraevitar que choquen con el bajo y el bombo.Pan: Depende de su uso. Si son rítmicas y están grabadas dobles, se pueden usar totalmentepanoramizadas. Si es un riff o un solo quizás al centro. Si va de acompañamiento a un lado.Demasiadas opciones JEQ: El recorte de graves le viene bien. Si no, la mezcla se enturbia. El resto de los ajustes de EQdepende del estilo y pueden ir desde la famosa curva en V del metal hasta las guitarras funky llenasde medios.Din: Un poco de compresión, ataque y decaimiento medios y ratio sobre 2:1 a 3:1, facilitan suintegración en la mezcla.FX: De todo un poco. Resto de instrumentosEn general, estos instrumentos van acompañando al resto, por lo que suelen estar recortados engraves para que empasten mejor en la mezcla y panoramizados fuertemente para no restarle peso ala canción, a excepción en los momentos en los que son solistas. La mezclaTal como comentábamos, lo más importante de una mezcla es el equilibrio entre la voz y la parterítmica, por lo que prestaremos especial atención al balance voz-bombo-caja-bajo que es dondereside la magia de la canciónUna vez que están equilibrados, situamos el resto de los elementos de la batería exceptuando losmicros generales de ambiente. Cuando todo suene a nuestro gusto, levantamos los overheads yambientes poco a poco y se corrige el sonido del resto de los instrumentos para mantener el mismoequilibrio con la voz, momento para introducir el bajo y tener el corazón de la canción.En este punto lo ideal es agregar las guitarras y darles el protagonismo deseado. Como hemoscomentado antes, las guitarras rítmicas suelen ir fuertemente panoramizadas. Como estamoshaciendo todo este proceso en mono, podremos comprobar la fuerza relativa de la suma de lasguitarras en comparación con la base rítmica + voz. Después de introducir las guitarras, podremosintroducir los sintes, colchones de cuerdas, etc, e ir recortando su espectro acomodándolos con laecualización.Cuando la mezcla suene correctamente y equilibrada, es el momento de escucharlo en estéreo.Notaremos cómo hay ciertos instrumentos, como las guitarras, que suenan demasiado alto y algunosefectos (reverberación y retardo, por ejemplo) suenan demasiado evidentes, por lo queprocederemos a hacer las pertinentes correcciones, comprobándolas constantemente en mono paratener una mezcla coherente en ambos formatos.
  • Trucos¡Automatiza!Durante la mezcla, se suele automatizar muchos parámetros, como volúmenes y envíos de efectos,dándole énfasis a distintas partes o, simplemente, equilibrando la dinámica. Especialmenteinteresante es añadir eco o reverberación a ciertas palabras de la voz, o mover objetos en elpanorama.Compresión en el master.Este es un tema muy peliagudo, pero lo cierto es que el sonido del compresor es el sonido demuchos estilos musicales, desde el Rock hasta el Trip-Hop y, además, la mezcla será comprimidadurante la masterización. Mi preferencia personal es comprimir un poco, hasta unos -3dB decorrección y luego enviar la mezcla limpia a masterizar con mi pista original como referencia,excepto donde la compresión es fundamental para el sonido de mezcla. El motivo de mezcla concompresión es que el balance de los instrumentos suele ser bastante diferente al aplicarla,constituyendo a veces una desagradable sorpresa. Por Antonio Escobar
  • La reverb y otros efectosIntroducciónLos procesadores de efectos son el condimento para nuestros guisos musicales, tanto en la mezclade sabores y pistas como en la transformación y búsqueda de nuevos sonidos en nuestros samples.Su utilización, bien sea en forma de hardware alojado en nuestro rack o bien en forma de software,nos permite dar ese toque personal a nuestro particular menú sonoro. LEXICON PSP-42 - Procesador software de efectos basados en delay para VST desarrollado por PSP imitando el mítico modelo hardware de LEXICONEtiquetas como “reverb”, “delay”, “chorus” o “flanger” son conocidas y utilizadas por todosnosotros a la hora de crear una carta musical en forma de mezcla. Lo que debemos preguntarnos essi realmente somos capaces de crear un plato de alta cocina sonora o simplemente nos dedicamos ausar recetas básicas en forma de presets con las que todo termina sabiendo y sonando igual y queconvierten nuestro proyecto musical en un simple menú del día.Por lo tanto para que nuestro Restaurante Sonoro pueda figurar en las mejores guías gastronómicasy musicales del mundo hay que huir de las recetas fáciles y presets preestablecidos para buscarnuevos sabores y sonidos. Pero para comprender a la perfección el funcionamiento y aplicación deestos condimentos contenidos en nuestros procesadores de efectos es necesario comenzar por elprincipio...Un poco de TeoríaNo quiero en este artículo adentrarme en los abismos de la Acústica de Recintos ni hacer un repasoexhaustivo de los fundamentos básicos del sonido, pero si que creo que es necesario explicar un parde conceptos que seguro os ayudarán a comprender un poco mejor todo esto.La reverberación es un fenómeno acústico natural que se produce en recintos más o menoscerrados por el cual a la señal original se le van sumando las diferentes ondas reflejadas en lasparedes del recinto con un retardo o “delay” generado básicamente por la distancia física entre lafuente de sonido original y las paredes del recinto. Pero entonces, ¿Cuál es la diferencia entre ecoy reverberación?Hay algunos autores que para definir el fenómeno de la “reverberación” usan el término “eco”como repetición de un sonido en el tiempo, de forma que la reverberación es un conjunto de ecosproducidos por las paredes del recinto que se van sumando a la señal original. En cambio, otrosautores más técnicos, prefieren diferenciar claramente ambos conceptos. Y esa diferenciación sebasa en una simple cuestión de percepción auditiva. Nuestro oído posee una característicadenominada persistencia acústica por la cual es incapaz de distinguir un sonido de sus reflexionessiempre y cuando la diferencia de tiempo entre ambas sea menor a 1/15 de segundo. También esimportante conocer el efecto HAAS, por el cual cuando el oído capta unas reflexiones con unretardo superior a 35ms es incapaz de integrarlos como “ecos” consecutivos y los asocia a la fuenteoriginal reforzándola.A efectos prácticos que es lo que nos interesa, esto se traduce en que nuestro oído no diferenciaentre el sonido puro y su reverberación, sino que lo percibe como un “todo”, un mismo sonidoque además presenta unas características diferentes del sonido original.
  • Hay quien defiende la teoría de que en la naturaleza no existen sonidos puros, que todos lossonidos que percibimos están alterados por este proceso de reverberación. Un ejemplo curioso es elde la voz humana, ¿quién no se ha sorprendido la primera vez que ha escuchado su voz grabada? Lasensación suele ser de que suena distinta. La razón hay que buscarla en que nuestra boca hace decámara reverberante y nuestros oídos no solo recogen el sonido externo que producimos y que losdemás escuchan, a la vez percibimos esa señal reverberada desde dentro y que sumamos a laoriginal. Lo cierto es que es bastante más complejo que esta explicación pero tampoco quiero irmemucho del tema.Otro ejemplo claro de reverberación a “pequeña escala” puede ser perfectamente una guitarraespañola. Uno de los aspectos que define el sonido de la guitarra es la forma de la caja, querealmente hace de cámara reverberante del sonido producido al tañer las cuerdas. Obviamente sivariamos la forma, las dimensiones o el material del cuerpo de la guitarra, estamos cambiando porcompleto el sonido que produce esa guitarra.Pero para poder simplificar el proceso, otros autores prefieren centrar el proceso de la reverberaciónen los recintos mas o menos cerrados, entendiendo que en un espacio abierto la reverberaciónproducida por el entorno es mínima y por lo tanto inapreciable. En el caso de los recintos cerradoslas variables que definen el proceso de reverberación son tan diversas que es muy difícil crear dosrecintos más o menos amplios con una misma acústica.Aparte de las variaciones atmosféricas (temperatura, humedad, viento...) que afectan a lavelocidad de propagación del sonido y por tanto influyen también en el fenómeno de lareverberación, existen una serie de variables arquitectónicas básicas que definen en gran medidael tipo de reverberación que se produce en cada recinto como pueden ser las dimensiones y la plantade la sala o los materiales que revisten las paredes. Estas variables forman parte básica de losparámetros que rigen los procesadores digitales de efectos como veremos un poco mas adelante.Algo de historiaEsta claro que el fenómeno de la reverberación vinculado a la Arquitectura o a la Acústica deRecintos no es algo nuevo, las catedrales góticas son un claro ejemplo de que muchas culturas han“manejado” e incluso dominado la acústica de recintos pudiéndonos remontar incluso acivilizaciones tan antiguas como los sumerios. Pero lo que realmente nos interesa es como recrearesas condiciones acústicas en nuestro estudio.Dejando a un lado las grabaciones en directo realizadas en teatros y auditorios (aprovechando laacústica propia de los recintos y los grandes estudios de radio de los años 20 y 30, precedenteobligado de los estudios de grabación y que en muchos casos se construían sobre antiguos teatros oimitando a estos), el camino hasta los actuales procesadores digitales de efectos no ha sido fácil.El primer paso, allá por 1930, fue la creación de cámaras de reverberación, habitaciones o salasde grandes dimensiones (hasta 100m3) normalmente con las paredes vacías y con unfuncionamiento relativamente simple. Un altavoz emite el sonido original desde un puntodeterminado de esa sala y un micrófono omnidireccional recoge el sonido reverberado de la sala.Las variables o parámetros son relativamente simples, el modelo de altavoz y micrófono y sucolocación en la sala. Con el tiempo se fue experimentando con nuevos materiales colocados odistribuidos por la sala para intentar modular las características del sonido reverberado.
  • Camara de reverberación variable de los Estudios DISCOREY en Monterrey (Mexico, 1974)La reverberación magnética fue el siguiente paso. Nos encontramos en la década de los 50 y elRock & Roll empieza a hacer furor en el mundo de la música y los magnetofones se han instaladodefinitivamente en los estudios de grabación de todo el mundo. Probablemente fruto de laexperimentación surge el primer procesador electromecánico de efectos. Como supongo que sabéis,los magnetofones poseen tres cabezales, borrado, grabación y reproducción, separados por unacierta distancia. Esta separación provoca un retardo entre la señal que se graba y la que sereproduce, de forma que si mientras grabo un instrumento en el magnetófono levanto el canal de lamesa donde tengo conectado la salida del magnetófono, estaré añadiéndole la misma señal peroretardada. Es decir, lo que hoy llamamos un delay. El tiempo de retardo depende de la velocidad dela cinta y de la distancia física entre los cabezales que cambia de un fabricante a otro. Si ademásdisponía de la función de variación de velocidad (pitch) podías modular el tiempo de retardo a tuvoluntad. Aún hoy en las emisoras de radio y en algunos estudios de grabación se pueden encontrarmagnetófonos de la marca REVOX que ha sido un autentico estándar en los magnetófonos de _ depulgada bipista y con los cuales se han creado los efectos y Reverbs de la gran mayoría de cuñaspublicitarias de los últimos treinta años. Solo la informatización de las emisoras de radio haconseguido relegarlos, aunque os puedo garantizar que aún hoy algún técnico de la vieja escuelasuele usarlo como procesador de efectos como si de un elemento más de su rack se tratase.ELOTTRONIX - Procesador VST desarrollado por ELOGOXA que emula el efecto “Flippertronix” creado por Robert Fripp y que simula dos STUDER REVOX B77 haciendo un loop continuoLas cámaras de muelles y las placas de eco fueron otros sistemas de reverberación naturalaprovechando las cualidades físicas del metal, en especial el acero para retardar la señal
  • (lógicamente cualquier metal es mucho más denso que el aire) y para crear reverbs mediantevibraciones sobre una placa recogidas por un micrófono piezoeléctrico.Con las primeras unidades de retardo electrónico basadas en dispositivos de transferencia decarga constituidos por filas de transistores “Mos”, a principios de los 80 se abrió el campo de lasreverberaciones artificiales cuyo funcionamiento era similar al de los actuales procesadoresdigitales pero sin conversión A/D. Si bien cayeron muy pronto en desuso, son el precedente directode la mayoría de las unidades digitales que hoy conocemos.Procesadores digitales de efectosHoy en día los procesadores digitales de efectos, tanto en Hardware como mas recientemente enaplicaciones software, forman parte fundamental de cualquier Estudio de Grabación y por extensiónde cualquier producción musical. Reverb, delay, flanger, phaser, chorus o vocoder forman parte denuestro vocabulario actual a la hora de diseñar un sonido. Pero, ¿realmente somos capaces dedefinir su funcionamiento o simplemente asociamos esas etiquetas a un resultado sonoro quepreestablecemos como explicación?La inmensa mayoría de las veces, nos acogemos mas bien a la segunda opción. Esedesconocimiento de las bases teóricas que rigen y modulan estos efectos es nuestra principallimitación a la hora de experimentar con nuevas formas sonoras, reduciendo nuestra capacidadexperimental a girar los diferentes potenciómetros, analógicos o virtuales, con la esperanza deacertar con algo diferente. Algunas veces, este rudimentario sistema trae consigo resultadosrealmente interesantes, pero la mayoría de las veces terminamos como “gallinas sin cabeza”correteando de un lado a otro sin saber de donde venimos o a donde vamos, concluyendo en unhastío experimental que acaba en el momento en el que nos rendimos y cargamos el mismo presetque tantas veces nos ha dado un resultado aceptable pero que condena nuestras producciones a lavulgaridad sonora.MODOS OPERATIVOSAntes de iniciarnos en este farragoso viaje a través de tipos de procesadores, parámetros,nomenclatura, o presets, creo que es más que necesario tener claro de que forma y manera vamos acargar estos procesadores en nuestra mezcla, ya que en gran medida depende de ello el resultadofinal.· Seco o MojadoAunque parezca un anuncio de pañales, Seco o Mojado sería la traducción al castellano de lostérminos “Dry” y “Wet”. El término “Dry” (Seco) hace referencia a la señal original que entra en elprocesador, es decir, la señal sin procesar. En un lenguaje menos técnico se suele denominar “señallimpia” en contraposición a “señal procesada”. Algunos fabricantes también se refieren a esta señalcomo “Direct” o como “Input”.El término “Wet” (Mojado) se refiere a la señal una vez aplicado el procesador. A veces, sobre todosi se trabaja con procesadores Hardware, se suele confundir con la señal que sale del procesador, locual no es correcto. La explicación es simple, la mayoría de los procesadores de efectos incorporanla posibilidad de mezclar la señal original con la procesada, con lo cual la señal resultante no tienepor que coincidir con la procesada.La opción “bypass”, en el ámbito operativo actúa como un conmutador que activa o desactiva elprocesador, de forma que nos permite comparar la señal original con la resultante.Hay algunos fabricantes que en vez de usar los términos Dry y Wet, utilizan un parámetro quesuelen denominar “Mix” y que se expresa en porcentaje (%) de señal. Realmente este parámetro loque esta modulando es la relación existente entre la señal original y la procesada. Esta característicaes común a muchos procesadores de efectos software.
  • Normalmente, los procesadores también nos permiten realimentar el sistema, es decir volver aenviar la señal procesada para que vuelva a ser procesada de nuevo. Es el llamado Feedback,(realimentación) que viene expresado a su vez en porcentaje de señal. Hablando en cristiano para noperdernos, determina que cantidad de señal volvemos a procesar en el sistema. Por eso cuandomovemos este parámetro hasta el 100% lo que sucede es que estamos creando un bucle de señalcuyo resultado auditivo es, en el mejor de los casos, una distorsión realmente desagradable.· Inserto o EnvíoAunque la mayoría de nosotros trabajamos con los llamados “estudios virtuales”, la nomenclatura ylos modos operativos usados en este tipo de aplicaciones de software provienen de los sistemasanalógicos tradicionales. Es el caso de los insertos (inserts) y envíos (sends).Un inserto es, básicamente, un punto en la cadena de audio donde la señal puede ser enviada a unprocesador externo de la mesa y retornada a ese mismo punto una vez procesada. Esto implica quela señal original se transforma por completo. En este caso para determinar la relación entre la señaloriginal y la procesada solo lo podemos realizar desde el propio procesador de efectos. Una vezretornada la señal al punto de inserto no se puede disociar.El envío es un concepto que se suele asociar al término “auxiliar”. Realmente se trata de una salidaauxiliar del canal de la mesa, que nos permite enviar la señal a un procesador externo sin cortar lacadena de audio. Es decir, en el canal de la mesa seguirá estando la señal original o seca. ¿Entoncescomo incluimos en nuestra mezcla la señal procesada? Sencillo, retornaremos la señal procesada aun canal de la mesa diferente, de forma que en el canal 1, por ejemplo, tendremos la señal original yen el canal 24 tendremos la señal procesada. La relación entre ambas la determinaremos con losFaders de cada canal. En algunas mesas digitales, cuando se usan los procesadores de efectos de lapropia mesa, el canal al que se retorna la señal procesada es fijo e invariable y se suele denominar“return” (retorno). Un ejemplo es la Yamaha 01V donde los dos canales de retorno de efectos envez de modularse mediante un Fader como el resto de canales de la mesa, utilizan un potenciómetrode botón.La diferencia entre envío y envío auxiliar es mas bien poco clara por que depende en gran medidade la nomenclatura que use cada fabricante. A grandes rasgos podemos decir que un Envío esindividual de cada canal y un Envío Auxiliar nos permite “routear” varios canales a un mismoEnvío. La mayoría de los fabricantes se refiere a los Envíos individuales como Envíos Directos(Direct Output). Lo que definiría los Envíos Directos es que la señal se toma justo después delprevio de entrada a la mesa, antes de ser ecualizada o regulada por el Fader, lo que en términostécnicos se define como PreEQ y PreFader. Vista de Rack de Insertos y Envíos de la Consola MACKIE 24:8 Bus SeriesPreEQ, postEQ, prefader y postfaderEstos conceptos creo que son un poco más sencillos. En algunas mesas, tanto digitales comoanalógicas, y en algunos programas software, tenemos la posibilidad de elegir desde que punto de lacadena de audio de la mesa queremos realizar el envío. Si seleccionamos un envío preEQ (Previo a
  • la ecualización) la señal que enviamos al procesador de efectos externo o interno de la mesa ira sinecualizar, en cambio, un envío postEQ (Posterior a la ecualización) implicará que la señal queenviamos al procesador llevará la misma ecualización que la señal original.Entiéndase que hablamos de la señal que enviamos, una vez que la señal pasa por el procesador y laretornamos a la mesa podemos ecualizarla como cualquier otro canal de la mesa. A efectosprácticos esto se traduce en que si en el canal de la señal original estamos usando una ecualizaciónmas bien correctiva (que tiene como objetivo corregir defectos o ruidos de la señal) el envío serápostEQ, de forma que la señal que le llegue al procesador de efectos no presente esas deficienciasque intentamos subsanar en el canal original. En cambio, si la ecualización del canal original es masbien expresiva (que busca realzar o dar brillo a la señal en determinadas frecuencias) el envío serápreEQ por que es preferible ecualizar la señal una vez procesada en el canal donde retorne. Estaaplicación practica es meramente orientativa, ya que existen multitud de excepciones yposibilidades, la más simple es que nuestro sistema no nos permita elegir entre un envío preEQ ypostEQ.Las opciones prefader y postfader funcionarían con la misma metodología. Un envío prefaderimplica que la señal es tomada antes del fader del canal original, lo que se traduce en que lasdiferentes variaciones del fader no le afectan. Por el contrario, en un envío postfader la señal estasujeta a las diferentes modificaciones del fader del canal original.· Usos y CostumbresA estas alturas mas de uno os estaréis preguntando “Este buen hombre ¿qué me esta contando deEnvíos, si a mí lo que me interesa es saber como hacerme una Reverb guapa para un tema que estoymezclando?”. Para que más o menos veáis la importancia del tipo de envío a la hora de aplicar unProcesador de Efectos nos vamos a quedar con un ejemplo fácil.Imaginemos un tema pop donde existe una voz principal y dos voces que van doblando esa voz ohaciendo coros. Además de jugar con la panoramización dejando la voz principal en el centro de lamezcla stereo y abriendo mas o menos los panorámicos de los coros, un truco básico es alejar loscoros de la voz principal dando la sensación de que se encuentran mas atrás. Podríamos hablar dedarle mas profundidad a esos coros. Para ello usaremos una reverb (mas adelante veremos que tipode reverb nos puede interesar para esto). Lo normal a la hora de usar reverbs es utilizar un envío,rara vez se utilizan Insertos que suelen destinarse mas bien a procesadores de dinámica oecualizadores externos donde es necesario procesar la señal por completo. Por limitación de medios,solo puedo usar una reverb para las dos pistas o los dos canales con coros, por lo tanto en principioprescindiré de los envíos directos (direct output) y usaré un envío auxiliar para que a un mismoprocesador pueda enviar la señal de dos canales. La señal procesada la retornaré, si las señalesoriginales ocupan los canales 12 y 14, pongamos al canal 18 de la mesa que me ha quedado libre.Este efecto de profundidad se consigue reduciendo la señal original y dándole caña a la señalprocesada.Cuanta menos señal original y más señal procesada, en este caso reverberada, mas sensación deprofundidad tendremos con respecto a la voz principal y por tanto del primer plano sonoro. A partirde aquí será nuestro oído o nuestro criterio el que determine la profundidad sonora en la quequeremos sumergir las voces de los coros. Para conseguir este efecto, el envío deberá ser prefader.¿Por qué? Sencillo. Si usamos un envío postfader, cuando bajamos los canales 12 y 14 quecorresponderían a la señal original estamos también bajando la señal que enviamos a la reverb, deforma que bajamos también el nivel de salida. Con un envío PreFader independizamos la señal queenviamos al procesador de forma que será mucho más fácil conseguir el efecto de profundidaddeseado.Un par de matices rápidos al ejemplo. Como hemos comentado hace unos párrafos algunosprocesadores incluyen la posibilidad de mezclar la señal original con la procesada, para conseguireste efecto lógicamente a la hora de confeccionar o de cargar el preset de la reverb es necesariodesactivar o mutear esta opción de forma que la señal que sale del procesador de efectos es solo laseñal reverberada. El otro matiz tiene que ver con el aumento de volumen, si a una señal original le
  • sumamos la señal reverberada la resultante tendrá un volumen superior lógicamente a la señaloriginal por lo cual tendremos que retocar ligeramente los volúmenes de la mezcla de voces.La ventaja de utilizar este truco (por otro lado muy simple) es que para crear los planos sonorosentre las voces no hay que recurrir a modular los volúmenes de forma exagerada. Dándoleprofundidad a los coros nos permite que tengan un volumen muy superior, incluso de primer plano,que tendrían si no las hubiésemos alejado mediante la reverb. De esta forma ganamos sonoridad ypresencia de todas las voces en la mezcla final y lo que es más importante, esa sensación de“empaste” que muchas veces echamos de menos.ReverbsProbablemente sea el procesador de efectos más habitual en cualquier tipo de producciónindependientemente del estilo musical en el que nos movamos. A priori, el uso o la utilización delas reverbs es la simulación de un recinto acústico concreto modelando este recinto mediante unaserie de parámetros. Pero en muchos casos es más bien una herramienta de creación y modelado denuevos sonidos que nos permite enriquecer o personalizar un sonido o una pista completa.Quizá el único dogma técnico existente y donde parece que hay cierto consenso entre técnicos eingenieros es que es extremadamente complicado variar o eliminar la reverb natural de unsonido grabado. Desde luego existen posibilidades pero los resultados rara vez son óptimos. Poreso la tendencia en el acondicionamiento acústico de salas de grabación es a crear espacios “sordos”o “secos” donde el sonido tenga una reverberación mínima y luego, en la mezcla, recrear medianteprocesadores digitales el entorno sonoro más adecuado a nuestra producción. Aunque bien es ciertoque grandes estudios o por lo menos con grandes medios, suelen disponer de alguna sala “brillante”o “semi-brillante” destinada principalmente a la grabación de percusiones e instrumentos acústicos.Hay quien piensa que la sonoridad que produce un buen diseño acústico de una sala es de difícilrecreación mediante procesadores digitales ya que estos tienden a ser muy metálicos o irreales. Yprobablemente no les falta su parte de razón, pero conseguir esa acústica de sala perfecta no es fácily sobre todo, no es barato.En el uso y utilización de reverbs habría que comenzar por los casos donde es necesaria. Cuandosolo disponemos de una sala “seca” y afrontamos grabaciones mas o menos clásicas como puede serun solo de piano o de guitarra, un cuadro flamenco o grabaciones de música clásica y opera, esnecesario crear una atmósfera común que simule un recinto real con unas condiciones acústicasóptimas. En estos casos se suele usar un mismo procesador para toda la mezcla o variosprocesadores con unas configuraciones muy similares, para que se cree esa atmósfera que la propiagrabación te pide.Por extensión serán los instrumentos acústicos los que casi demandan la utilización de una reverb.La guitarra española es un claro ejemplo. Es un instrumento que podríamos declarar “agradecido”al uso de reverbs que le dotan de la sonoridad natural que tiene el instrumento y que a veces sepierde en el registro o la grabación. Además, con el uso de reverbs muy cortas (tiempo dedecaimiento o decay muy bajo) le confiere una sonoridad que parece “engordar” el sonido. El usode las reverbs así como de otros procesadores digitales esta íntimamente relacionado al tempo deltema musical. Un tempo mas bien lento como puede ser un adagio nos permite usar Reverbs muylargas (tiempo de decaimiento o decay con valores muy altos). En cambio, ese mismo tiempo dedecaimiento tan largo en una producción muy viva o veloz (alegro), puede fácilmente emborronardemasiado la ejecución del intérprete y probablemente también la mezcla. En el apartado dedicadoa las unidades de retardo o delay profundizaremos en el tema de la sincronía tempo-efectos.
  • MASTERVERB - Reverb Software VST y DX desarrollado por WAVE ARTSUna referencia habitual en los libros y manuales técnicos se refiere al espectro sonoro de losinstrumentos o incluso de la pista para modular los parámetros de una reverb. Parece claro quelas frecuencias más graves se propagan de una manera mucho más abierta y lenta que las agudasque tienen una propagación mucho mas rápida y direccional. Pues bien, según este criterio parainstrumentos o sonidos muy graves, el uso de estos procesadores debe centrarse simplemente en“engordar” el sonido mediante programas muy cortos o en muchos casos no usar ningún tipo dereverberación. La razón esta en esa misma capacidad de propagación que con el uso de Reverbspuede enturbiar el sonido y por tanto la mezcla. Por el contrario, los instrumentos o sonidos muyagudos son mucho más receptivos al uso de procesadores de efectos, no solo reverbs, ya que tienenla claridad necesaria para el lucimiento de los efectos sin que enmarañe la mezcla. Como ejemplode este criterio aplicado de forma consciente o inconsciente es el bombo o el bajo. Es realmentedifícil encontrar producciones donde se hayan aplicado programas de reverberación largos a estosinstrumentos. De todas formas, todas estas consideraciones son meras orientaciones puesto que lacapacidad de experimentación en un técnico o en un productor deben estar por encima de dogmas oprincipios y su oído debe ser el juez supremo.Al igual que hablábamos de la querencia de la guitarra española sobre este tipo de procesadores, esaplicable a la mayoría de instrumentos acústicos como puede ser piano, la familia de los metales(trompeta, trombón, saxo), maderas (flauta y clarinete), pequeña percusión y cuerdas (violín yviola), con la excepción de cello y contrabajo que necesitan un tratamiento muy cuidadoso para noperder la definición tan completa que suelen tener ambos instrumentos. En la mayoría de estosinstrumentos se tiende simplemente a recrear un espacio sonoro donde puedan destacar sus propiaspropiedades tímbricas y solo en raras excepciones se busca modificar el sonido original mediante eluso de reverbs.El caso de la batería acústica es bastante más complejo en gran medida por que claramenteabandonamos una estética mas bien clásica y nos adentramos en nuevas formas de expresión técnicadonde la creatividad sonora es parte fundamental del proceso. El bombo, debido a su forma ypropiedades físicas no suele necesitar del uso de reverbs, aunque si en la grabación se han usadoreductores de ruido que han diezmado en exceso el decaimiento natural del instrumento esrecomendable usar programas muy cortos para redondear el sonido aunque no suele ser lo habitualpor que el resto de pistas de la batería suele recoger también parte del sonido del bombo. El caso delos timbales es similar aunque cuanto menos diámetro tiene el timbal o tom, mas demandaría unareverb tipo hall, room o stage con un decaimiento inversamente proporcional a su diámetro. Influyemucho que normalmente los toms son instrumentos de corte sin una carga rítmica constante con loque se puede ganar mucha sonoridad mediante programas más largos ya que no enturbian tanto lamezcla como ocurriría en el caso del bombo. Para el tratamiento de platos y charles se tiende a usarprogramas tipo plate que como veremos son muy metálicos y lógicamente resaltan la sonoridad deestos instrumentos. La caja es el caso más complejo. De su sonido depende en gran medida laidentidad musical de la producción que estamos mezclando y la variación que puede producirse a lahora de usar un programa u otro es tan amplía que es muy difícil marcar una pauta que nos pueda
  • servir de base. Algunos autores indican un programa tipo plate como punto de partida, pero esta esuna apreciación que no es muy afortunada en algunos estilos musicales.En sintetizadores y samplers, la utilización de procesadores de efectos, no sólo reverbs, formaparte del proceso de creación de un sonido. En este sentido es complicado sentar alguna base detrabajo.Algo similar ocurre con la guitarra eléctrica, cuyo amalgama de posibilidades sonoras relacionaníntimamente el uso de procesadores con el sonido que el intérprete busca. Existe la creencia mas omenos generalizada de que un sonido más analógico y cálido es mas bien seco y que las reverbs yotros efectos implicarían otra concepción musical más fría o digital. Aunque esto no siempre es asíy dependería del tiempo de decaimiento de los efectos.El caso de la voz humana es un poco particular. Como ya vimos, tenemos que partir de la base quea nosotros mismos nos escuchamos con una reverb natural generada en la cavidad bucal que actúacomo cámara reverberante y cuyo sonido se transmite por las mandíbulas y otros conductos hastanuestros oídos. Esa es la causa principal por la cual la primera vez que escuchamos una grabaciónde nuestra voz no suena “raro”. De hecho hay muchos interpretes que incluso para ensayar o paragrabar necesitan escucharse con mucha reverb. Algo que también sucede de forma natural encualquier ducha o lavabo cuyas paredes estén recubiertas de azulejos. De ahí que lo de cantar en laducha tenga mucho sentido. Además, no será el primer estudio de grabación que ha usado los aseoscomo sala brillante. Por lo tanto parece claro que toda voz debe llevar algo de reverberación. Otrotema es que esa reverberación se deje notar o tan solo sirva para “engordar” o dar empaque a la voz.Dentro del apartado de “dejarse notar” desde luego me quedaría con la reverb de 7 segundos,perfectamente estudiada, con la que Julio Iglesias deleita a sus feligreses en sus recitales.Parámetros Principales· REV TIME (Tiempo de Reverberación) es el tiempo expresado en segundos o fracciones desegundo que es necesario para que el nivel de reverberación disminuya unos 60dB convirtiéndoseen inapreciable.· PRE-DELAY o INITIAL DELAY es el tiempo que transcurre desde que llega el sonido directo o laseñal original hasta que llegan las primeras reflexiones que corresponden a la pared opuesta a lafuente de sonido. Suele variar entre 0 y algunos cientos de milisegundos. Cuanto mayor sea, másgrande parecerá la sala simulada, al dar la impresión de que la pared opuesta esta mas alejada.· EARLY REFLECTIONS primeras reflexiones o reflexiones primarias, en algunos procesadorespermite desactivarlas. En principio son las que mayor carga sonora poseen y que más cerca de laseñal original se situarán.
  • TRUEVERB Reverb TDM desarrollada por WAVES· REV DELAY es el tiempo que transcurre entre las primeras reflexiones y el inicio de lareverberación.· DIMENSION nos permite configurar las dimensiones del recinto. En algunos casos vieneexpresada directamente en metros cúbicos, aunque algunos modelos permiten configurar porseparado la anchura (WIDTH), la altura (HEIGHT) y la profundidad (DEPHT). También sueleaparecer como ROOM SIZE que siempre va expresado en metros cúbicos.· DIFUSSION esta relacionada con el contenido de una supuesta sala, es decir si es una sala llena ovacía. Cuanto mayor sea más rica y compleja será la reverb.· DENSITY determina la densidad de las reflexiones, entendiendo por densidad, el numero ysecuencia temporal entre todas las reflexiones que componen la reverberación. Cuanto más alta esla densidad mas “pesada” o contundente será la reverb.· LIVENESS está relacionado con los materiales con los que van revestidas las paredes de la sala.Realmente expresa la vivacidad de la sala. Si queremos simular una sala con paredes de piedra elvalor será muy alto, mientras que si queremos una sala mas muerta como si hubiese moqueta en lasparedes, su valor será ciertamente muy bajo. Hay que tener en cuenta que este parámetro tiende aactuar solo sobre las frecuencias más agudas.Presets más habituales· HALL - En principio simula una gran sala, tipo auditorio. Suelen ser bastante largas y poco densas.Hay fabricantes que distinguen entre SMALL HALL o LARGEST HALL.· ROOM - Simula las condiciones acústicas de una sala pequeña o una habitación.· PLATE - Realmente es una reverberación mecánica, como si colocásemos una plancha metálicafrente a la fuente de sonido, de forma que sobre todo las reflexiones primarias son muy brillantes.
  • · CATHEDRAL - Intenta recrear las condiciones acústicas de la típica catedral gótica, una reverbmuy larga y densa llena de matices y poco recomendable para las mezclas por que tiende aenturbiarlo todo.· BATHROOM - Como su nombre indica, simula las condiciones de un cuarto de baño típico, unespacio mas bien reducido y muy brillante puesto que las paredes son de azulejo y ya se sabe de laspropiedades acústicas de la bañera. Hay fabricantes que también incluyen una variante STATEBATHROOM, que viene a ser un baño de grandes dimensiones. Procesador Hardware Multiefectos TC ELECTRONICS M6000· TEATHRE - En teoría simula las condiciones acústicas de un teatro, aunque en la práctica viene aser una reverb hall un poco menos densa y matando un poco las reflexiones primarias.· STUDIO - En principio un estudio no debería tener ningún tipo de reverb, pero algunos fabricantesincluyen un preset donde han dejado las reflexiones primarias y han eliminado el resto. Inclusodiferencian entre STUDIO A y STUDIO B, cuya diferencia viene a ser las dimensiones del estudio.Aunque otros fabricantes usan configuraciones distintas.· VOICE ROOM - De verdad que hay fabricantes osados en esto de hacer presets, en principio esuna reverb tipo ROOM adaptada para voz (?) Pero no queda ahí la cosa, también te puedesencontrar DRUMS ROOM o GUITAR ROOM.· MILLENIUM - Es similar a la CATHEDRAL pero incluyendo muchos más retardos. No simulaningún tipo de recinto conocido, es muy espectacular aunque poco práctica.· Por último algunos fabricantes en determinados modelos (por ejemplo en la Yamaha 01V)incluyen diseños particulares para cada instrumento para que no tengas que pensar mucho: HIT-HAT, TOM1, TOM2, SNARE, CRASH, etc, etc...Delay: unidades de retardoDejando a un lado su utilización en la sonorización de eventos y espacios, lo que se denomina“refuerzo de sonido” o “Public Address” (P.A.), las unidades de retardo o delay son unaherramienta muy potente en aplicaciones musicales.Como vimos en la introducción a los principios teóricos al principio de este artículo, la definiciónde eco (echo) vendría dada por la capacidad de nuestro oído de diferenciar la señal original de lareflejada y por lo tanto, según el efecto Haas, el retardo mínimo deberá ser superior a 50milisegundos. En la práctica, hablamos de delay para referirnos a cualquier retardo sobre la señaloriginal y a eco (Echo), cuando este retardo si que es identificado por nuestro oído como una señaldiferente a la original.
  • SPINDELAY - Delay Stereo VST desarrollado por SPINAUDIOHay que distinguir dos vertientes del efecto, el llamado eco simple, donde la señal sólo se dobla unavez y que simplemente retarda la señal respecto a la original, y el eco múltiple. En el eco múltiplehay que definir cual será el tiempo de realimentación (feedback delay), el numero de veces que seva a producir la realimentación (a veces se expresa en % de señal) y el nivel de salida.Pero para que un delay o eco múltiple se integre perfectamente en nuestra mezcla hay que pensarque es un elemento rítmico más de la producción y que su uso debe ser sincrónico al tempo ycompás del tema musical. Para calcular esta sincronía en los retardos, podemos tirar de calculadorao bien, recurrir a las tablas de retardos sincrónicos que nos muestran las relaciones entre lavelocidad del tema y el tiempo de retardo, si queremos que nuestro delay sea a negras o bien acorcheas, tresillos, semicorcheas, etc... Un ejemplo a 120 b.p.m. el retardo expresado enmilisegundos en negras será de 500, en corcheas 250, en tresillos 166,6 etc...- [ Bájate aquí una tabla de delays en formato Excel ]Hoy en día muchos procesadores de efectos incluyen esta función en sus procesadores dondedefines el tempo musical del tema y el valor de duración de la nota que representará el delay.El empleo de delays se ha centrado tradicionalmente en guitarras como apoyo rítmico y en menormedida en teclados y sintetizadores. En el caso de las voces se ha usado para doblar la vozprincipal aunque hay ejemplos de muchas mezclas que revelan que es una herramienta creativa coninfinidad de posibilidades pese a su simplicidad. Quizá sea debido a que es un efecto que se dejanotar, que al oído no le pasa inadvertido. Y esta virtud le permite asociarse con otros procesadoresde forma que si aplicamos un delay simple a una reverb conseguiremos que esa reverb se deje notarde una manera más evidente, dependiendo del tiempo de retardo. Y viceversa, si al usar un retardomúltiple insertamos después una reverb, la sensación de “empaste” del delay será mayor. DDBPM - Doble Delay Sincronico desarrollado por DSOUND para VSTUno de los programas más curiosos es el delay ping-pong, un programa múltiple donde cadarepetición se panoramiza a un lado de la mezcla, creando un efecto de cruce estéreo entre lasrepeticiones. Hay algunos procesadores que usan etiquetas como slap, short, medium o long, quehacen alusión a los tiempos de retardo, teniendo siempre en cuenta que para hablar de eco (Echo)hay que moverse en valores superiores a 50 milisegundos.Efectos de modulación: chorus, flanger y phaser
  • Son los efectos que afectan a la modulación en frecuencia de las señales. Esta modulación se basaen las diferentes sensaciones que percibe nuestro cerebro en función de las diferencias de volumen,afinación o procedencia de la música. Las señales son repetidas con un ligero retardo y sometidas auna pequeña variación de frecuencia.· CHORUS: Es un efecto que persigue dar mayor profundidad a la señal tratada dotándola de unasensación de profundidad. Se suele aplicar para engordar o engrandecer las secciones de cuerda,teclados o guitarras. Básicamente se trata de dividir la señal tratada en tres señales diferentes que secolocan en el centro, izquierda y derecha del panorama estéreo. Cada señal es retrasada ligeramentepor un oscilador de baja frecuencia (LFO) para que las variaciones de tono sean mínimas.· FLANGER: Es un efecto típico de las guitarras eléctricas. Se logra efectuando una combinaciónde retardo y oscilador de baja frecuencia. Los valores de ese retardo oscilan entre 1 y 15 ms y labaja frecuencia entre 0,03 y 1 hz. Para obtener el efecto, una parte de la señal de baja frecuencia seingresa en el circuito de retardo sumándose a la señal directa. Su funcionamiento se basa en unligero retardo que se alterna constantemente con la modulación producida por el LFO, consiguiendoun cambio de fase de la señal procesada con la original. Es necesario que ambos niveles de salida ode mezcla, original y procesado, sean similares y se consigue una mayor expresividad cuanto mayorsea el espectro de frecuencias tratado.· PHASER o PHASING: Hay quien opina que es una versión suave del flanger, pero básicamentese trata de invertir la frecuencia de la señal procesada respecto a la original y retardarla ligeramentelo que provoca cancelaciones continuas de la señal y un efecto muy concreto y también muyapreciados por guitarristas y guitarreros.· TREMOLO: Es un efecto muy similar al producido por un programa chorus, pero mucho másmarcado, tanto en la profundidad como en la variación del retardo. Clemente Tribaldos en su libro“SONIDO PROFESIONAL” (ED Paraninfo 1993) lo define como “una modulación cíclica yaleatoria de la señal de entrada, pudiendo controlar el retardo introducido...” ahí es nada. Procesador Hardware Multiefectos YAMAHA SPX 1000Otros tipos de procesadoresVocodersSe trata de un efecto muy característico en las producciones ochenteras de Pink Floyd o TangerineDream y más recientemente, el tema “Believe” de Cher. Se trata de dividir la señal mediante unared de filtros pasa banda en un determinado numero de bandas muy estrechas en distintasfrecuencias, por lo que podemos acceder a modificar el ancho de banda o actuar sobre losarmónicos centrales, modificando las características de la señal tratada. Es un efecto muy complejoque utiliza osciladores y generadores de ruido y cuya resultante es realmente particular.Efectos de Tono: Pitch y OctaverRealmente han quedado un poco trasnochados con la llegada de procesadores digitales por software,pero la mayoría de los multiefectos siguen incorporándolos. El Octaver, como su nombre indicapermite disminuir una o dos octavas la señal original y ha sido muy usado en guitarras y bajos.Pitch Blend o Pitch Change es una aplicación que cualquiera manejamos en un Editor de audio y
  • que nos permite realizar ajustes de afinación en la señal original. Ahora bien, si usamos estosefectos con un cierto delay o retardo, mezclando la señal procesada con la original, los resultadospueden ser sorprendentes. Un ejemplo seria aumentar una octava una pista de voz, darle un delaycorto y un programa de reverb con poca densidad.Efectos de timbre: Overdrive y ExcitadoresEl Overdrive o distorsión es un efecto característico de las Guitarras Eléctricas y por extensión, delos Pedales o Pedaleras de Efectos. Como su nombre indica, se trata de producir una distorsión alsonido que lo convierte en agresivo y potente. Lo más habitual es que nos permita seleccionar elrango de frecuencias que someteremos a la distorsión y el grado de la misma.Hablar de Excitadores es hablar de APHEX que ya en 1975 introdujo en el mercado el primerexcitador aural. Estos procesadores tienen una doble función, actúan sobre las frecuencias medias yagudas generando armónicos y realzándolos y por otro lado amplían, de una forma aparente, elespectro estéreo enmascarando la escucha. Esta supuesta ampliación se debe a que estimulan losprocesos pisco-acústicos de la escucha humana para crear ese efecto.Trabajando con procesadoresA lo largo de las explicaciones hemos ido introduciendo algunos trucos y aplicaciones, mas biensimples, de uso y utilización de diversos procesadores de Efectos. Reconozco que muchas veces escomplicado salirse de los presets y programas habituales e intentar buscar nuevos sonidos que leden personalidad a nuestra mezcla. Supongo que en cierta manera, al igual que con losecualizadores, existe una tendencia correctiva y otra expresiva a la hora de aplicar determinadosprocesadores.Dentro de esa tendencia correctiva incluiríamos por ejemplo, recrear unas supuestas condicionesacústicas de las que carece nuestro Estudio o dotar de mas peso o rotundidad a una voz solista.En la tendencia expresiva irían todas las configuraciones dirigidas a conjugar mejor los sonidos enuna mezcla, utilizando los procesadores a la hora de efectuar planos sonoros o ampliar el espectroestéreo de un instrumento.Quizá uno de los errores o carencias mas habituales es utilizar los procesadores de una formaaislada. Probablemente el secreto para personalizar el sonido de una mezcla o de una pista esta enutilizar varios procesadores en cadena combinándolos con ecualizadores y procesadores dedinámica. Ejemplos hay muchos, desde la clásica reverb de caja sesgada con una puerta de ruido(noise gate) al estilo Phill Collins hasta la última moda Pop de doblar la voz mediante un delaysimple sincronizado y filtrado por un Ecualizador que simule el sonido de los antiguos receptores deonda media (AM) con un programa de reverb largo y poco denso. Desde luego las posibilidades soninfinitas ya que en este caso el orden de los factores si que altera el sonido final. No es lo mismoecualizar una señal reverberada que reverberar una señal ecualizada, aunque en algunos casos elresultado final puede ser muy similar, en otros las diferencias son muy evidentes.El otro gran error es el abuso de efectos y procesadores que a veces llega a desvirtuar el sentidomusical de un tema rebajándolo a un mero ejercicio o demostración técnica. La frontera entre el usoy el abuso, en ocasiones, es muy fina y en el fragor de una mezcla es fácil dejarse llevar por laexperimentación y la tecnología. Por eso siempre es positivo dejar enfriar una mezcla e intentar sercríticos a la hora de retomarla.10 consejos rapidos1. La mejor reverb del mundo no es siempre la más espectacular, sino la que mejor se adapta a tumezcla o al estilo musical que estas mezclando.2. Los presets son como la comida rápida, están bien cuando tienes poco tiempo y necesitas algorápido, pero donde este un buen entrecot a la brasa con una buena guarnición asado con tiempo y
  • paciencia, que se quite un Big Mac. Aunque a veces, por no cocinar, apetezca más un Mac Menú yotras que, con tanto tiempo y paciencia, se te queme el entrecot.3. Ten siempre en cuenta que una pista o un instrumento va integrado en una mezcla de forma que,aunque pueda parecer que esta muy alto el efecto, luego en la mezcla apenas se deje sentir yviceversa. Por eso siempre es bueno escuchar como se integra el sonido procesado en la mezclapara evitar sorpresas de ultima hora.4. El mejor procesador de efectos no es siempre el más caro sino el que conoces mejor. Dominar unprocesador implica una capacidad mayor para encontrar con el efecto más idóneo para cadaocasión, por eso no es necesario tener decenas de efectos diferentes en el ordenador. Con unospocos bien “crrados” se obtienen mejores resultados que con muchos que en algunos casos nosviene justo para saber como funcionan.5. El mayor pecado de un técnico es que su trabajo se deje notar. A la hora de diseñar un efectonunca esperes que el oyente piense “que reverb más estupenda ha insertado en tal pista”. Unamezcla es un concepto global.6. Los procesadores de efectos, como el resto de la tecnología, están al servicio de las ideas oconceptos musicales. Cuando te dejas llevar y la música acaba por estar al servicio de latecnología, tu música acaba pareciéndose a la demo de cualquier fabricante, aunque hay quereconocer que hay algunas demos que son autenticas joyas.7. El volumen de escucha es fundamental a la hora de valorar un efecto. Si tienes los monitoresmuy “cañeros” escucharas los efectos perfectamente. Pero sucede que el consumidor final de lamezcla no tiene por que tener semejante volumen de escucha, mas bien al contrario, por lo quesiempre es positivo hacer una escucha con un volumen mínimo para ver como se comportan o comoquedan esos efectos en la mezcla. Por desgracia lo que antes era espectacular, a bajo volumen ni seaprecia.8. Sentarte a oír música y escuchar que han hecho otros incluyendo que tratamiento han dado asus pistas, es mucho más practico y constructivo que leer artículos como este en la red. Escuchar essiempre la mejor herramienta de creación de que disponemos.9. La ausencia de efectos también es un efecto. No te sientas obligado a partir de ahora a procesartodas las pistas a diestro y siniestro, un sonido seco y limpio puede ser un efecto tan valido como lamejor combinación de procesadores.10. Lo que al final determina si un efecto es apropiado para una mezcla es tu criterio y tu oído.Cuando te enfrentes a una mezcla de nada servirán ni libros, ni artículos ni siquiera consejos en losForos (que los hay muy buenos). Al final, lo que te queda es tu criterio y lo que tu oído escucha. Elresto, como este artículo o cualquiera de los de la amplia Biblioteca de Hispasonic, son meras guíaso consejos que pueden estar muy bien y ayudarte un montón, pero lo que cuenta es lo que escuchascuando le das al play del secuenciador o del multipistas. Por Proty
  • Reverb inversa Muchas veces habrás oído este tipo de efecto: una reverberación que va in crescendo y seengancha con el sonido que la produjo, exactamente al revés de como actúa una reverbnormal, que nace a partir de un sonido y va decreciendo. Evidentemente esto no puede hacerse a tiempo real; no hay reverbs que "viajen en eltiempo" y se adelanten al sonido del que dependen. Pero la cosa es muy sencilla; abre tueditor de audio y ten a mano la muestra sobre la que quieres hacer el efecto; vale cualquiercosa, incluso mezclas completas. Con todo se puede experimentar; nosotros te daremos unejemplo tratando un sample corto de voz.Tratando la muestra original Escucha [aquí] nuestra toma original, antes de ser retorcida... Como es un efecto que se utiliza a manera de "Reverse Cymbal", es decir, para dar unaentrada sorprendente y espectacular a un momento concreto, trabajaremos sólo sobre elmomento inicial de la muestra. En nuestro caso, haremos el efecto sobre la primera sílaba dela frase "de nuevo vuelvo a vivir". Cargamos esta muestra en el editor e insertamos una buena cantidad de silencio alprincipio, dejando así espacio para que luego suene la cola de reverberación.Dándole la vuelta y añadiendo reverb Selecciona toda la onda y ejecuta la función reverse de tu editor de audio. Esto hará quesuene todo al revés, claro; la cosa da risa, pero es necesario... Escucha [aquí] la toma en reverse. Ahora haz una selección que empiece en el pedazo a procesar (en nuestro caso esasílaba) y que llegue hasta el final de la muestra tal como la tienes ahora. Como hemos dado lavuelta a la onda, ahora el inicio original estará al final, seguido de los segundos de silencioque aplicamos antes. Con este segmento seleccionado, aplica reverb y guarda los cambios a la onda. Usa lareverb que más te guste -cuanta más cola tenga, más tiempo durará el efecto y más silenciodeberás añadir previamente-. Recuerda: añade reverb sólo a la parte seleccionada.Otra vuelta y... ¡al plato! Selecciona ahora toda la muestra de nuevo. Ejecuta otra vez la función reverse paraponer las cosas en su sitio. Dale a play y... ¡ya lo tienes!¡Ahora a practicar! Por Xabier Blanco
  • La ecualizaciónLa ecualización es una de las tareas de estudio más desconocidas; sin embargo, su uso esfundamental para conseguir un sonido realista y natural. En este artículo partimos de lo básico y tedamos una visión general para que empieces a trabajar sobre ella.Breve introducción al sonido: la frecuenciaEl sonido es la vibración de un medio elástico, bien sea gaseoso, liquido o sólido. Las ondasgeneradas por la fuente sonora producen ciertas variaciones de presión en el medio (porejemplo, el aire o el agua), y esto es lo que permite que sean percibidas por el ser humano (sibien no percibe cualquier variación; si es demasiado rápida o demasiado lenta no laescuchará). Es por ello que en el espacio cósmico no hay sonidos, ya que falta el medio por elque deben discurrir: en el espacio sólo hay vacío, y por ello no pueden haber variaciones depresión audibles.Partiendo de esto, podemos definir la frecuencia del sonido como el número de vibraciones(ciclos) que produce una señal sonora por unidad de tiempo (el segundo). La unidadcorrespondiente a un ciclo por segundo es el herzio (Hz). Las frecuencias más bajas en herziosse corresponden con lo que habitualmente llamamos sonidos "graves?, sonidos de vibracioneslentas. Las frecuencias más altas en herzios se corresponden con lo que llamamos "agudos" yson por ello vibraciones muy rápidas.Como hemos insinuado antes, el ser humano no puede captar cualquier vibración; el espectrode frecuencias audible variará según cada persona, pero se acepta como media el intervaloentre 20 Hz y 20 kHz. Así que en este rango de frecuencias existe todo lo que nosotrospodemos oír; más alla están los ultrasonidos (por encima de 20 Khz) y los infrasonidos (pordebajo de 20 Hz), que sí pueden captar algunos animales con un sistema auditivo másdesarrollado.Cada instrumento musical, como cualquier otra fuente sonora, produce sonido en una zonadeterminada de este espectro de frecuencias audibles; unos abarcan más espacio y otrosmenos. Y aquí es donde entran los ecualizadores: estos dispositivos alteran la respuesta enfrecuencia de un sonido, aumentando o atenuando ciertas frecuencias.Tipos de ecualizadoresExisten varios tipos de ecualizadores; el más simple es el de tipo shelving, que tienesolamente control de graves y agudos; se encuentra en cualquier equipo común.Normalmente, estos ecualizadores aumentan o atenúan 15 db en 100 Hz (graves) y en 10 KHz(agudos), aunque pueden variar según cada modelo. Con un ecualizador de tres bandaspuedes ya aumentar o atenuar bajos, medios y agudos, también sólo en frecuencias fijas: porejemplo, en 100Hz (bajos), 2 KHz (medios) y 10 KHz (agudos).Los ecualizadores semiparamétricos son los que te permiten elegir la frecuencia a ecualizar;de esta manera puedes aumentar o atenuar las frecuencias que te parezcan convenientes. Enun ecualizador paramétrico tienes, además, la posibilidad de elegir el ancho de banda (rangode frecuencias afectadas a partir de la elegida) que quieres aumentar o atenuar. Esteparámetro es conocido como "Q".Por último, los más comunes son los ecualizadores gráficos, que van por lo normal desde 5hasta 31 bandas de frecuencia fijas, aunque a veces te encuentras con aparatos máscomplejos, con más bandas (en la foto que sigue puedes ver uno de 10 bandas por canal).
  • Los ecualizadores tienen básicamente estas dos aplicaciones: Resolver problemas Los ecualizadores se pueden utilizar como filtros, para atenuar o eliminar frecuencias quemolestan, ruidos o interferencias que se mezclan con el sonido. Por ejemplo, el hum producido por una mala fuente de alimentación se reduce atenuando en 50-60 Hz aproximadamente. El hiss, tan común en los cassettes, se puede disminuir atenuando las altas frecuencias. Por lo general, los problemas ocurren en un rango determinado de frecuencias, por esto es que losecualizadores paramétricos son los ideales para este propósito. Otro problema común es el del enmascaramiento: un instrumento con una resonancia o un pico en una frecuencia. Si bien este instrumento suena bien solo, al mezclarlo con otros puede interferir en la claridad de éstos, por lo que es recomendable atenuar estas frecuencias, comprimirlas o limitarlas. Afectar a la personalidad de un sonido Los EQ también pueden variar el carácter de un instrumento. Esto se logra alterando la frecuencia fundamental o los armónicos, teniendo en cuenta siempre que si se alterastodos los instrumentos por separado y luego los mezclan no se asegura un buen resultado de la mezcla. Para ecualizar correctamente un instrumento puede servirte como guía nuestratabla referida al rango de frecuencias de los instrumentos musicales; para consultarla, pulsa [ aquí ].Ideas para el uso práctico de los ecualizadoresComo norma general, a cada instrumento se le puede dar cuerpo aumentando su frecuenciafundamental. Atenúa ésta si el sonido es muy grave o indefinido. Aumentando los armónicos ledas mas presencia y definición, así que atenúalos también si el sonido es muy violento. Porotra parte, ten en cuenta que ecualizaciones extremas reducen fidelidad, pero pueden crearefectos interesantes: por ejemplo, cortando bruscamente los graves y los agudos de una vozse consigue el sonido telefónico.Las siguientes son algunas sugerencias de frecuencias que puedes ajustar con losecualizadores. Si quieres lograr el efecto deseado, aumenta en esa frecuencia; si no lo quieres,atenúala (en la foto, una EQ de Cubase configurada para reducir los hiss y hums de una pista de voz). · Bajo: Cuerpo y profundidad en 60 Hz, áspero en 600 Hz, presencia en 2.5 kHz y ruido de cuerda a partir de los 3 kH. · Guitarra acústica: Cuerpo en 80 Hz, presencia en 5 kHz, sonido de púa por encima de 10 kHz. · Guitarra eléctrica: Pegada en 60 Hz, cuerpo en 100 Hz, estridente en 600 Hz, presencia en 2-3 kHz, latosa y rasposa arriba de los 6 kHz. · Batería: Cuerpo en 100 Hz, apagada en 250-600 Hz, trash de 1 a 3 kHz, ataque en 5 kHz, seca y enérgica en 10 kHz. · Bombo: Cuerpo y potencia por debajo de los 60 Hz, acartonado 300-800 Hz (corta de 400 a 600 para conseguir un mejor tono), y el kick o ataque en 2-6 kHz.· Percusión: Brillo y presencia en 10 kHz.· Saxo: Cálido en 500 Hz, duro en 3 kHz, sonido de llaves por encima de 10 kHz.
  • · Voz: Cuerpo en 100-150 Hz (hombre), cuerpo en 200-250 (mujer), sonido nasal en 500-1000 Hz, presencia en 5 kHz, y sonido de s arriba de 6 kHz.¿Hay que usar los EQ cuando grabas o cuando mezclas?Si se graban todos los canales por separado, lo que usualmente se hace es grabar con todoslos EQ planos y ecualizar durante la mezcla. Esta es la mejor solución, porque las cosascambian cuando se escuchan todos los instrumentos al mismo tiempo. Si, en cambio, tienesque hacer premezclas antes de grabar, debes ecualizar antes de premezclar. También debessaber que, en tomas de micro, antes de usar un EQ debes intentar lograr ese cambio de tonocambiando de lugar los micrófonos. Esto le da un efecto más natural que utilizando el EQ. Paraacabar, recuerda que los EQ suelen trabajar mejor cuando se utilizan sutilmente (variacionesde 2 o 3 db pueden ser suficientes).El error más común es comenzar agregándole graves a todo; así la mezcla sonará grave yturbia. Si haces eso podrías pensar que subiendo los agudos se arreglará el fiasco, pero verásenseguida como los medios suenan débiles... y se descontrolará todo. Un buen consejo esutilizar la EQ con bypass para ir escuchando y controlando la ecualización en todo momento.· Tutorial cedido por Tamaba (Taller de Música y Arte de Buenos Aires) [http://www.tamaba.com.ar ]· Aumentado y adaptado por Xabier Blanco
  • La masterización "La masterización es el arte del compromiso; saber qué es lo posible y lo imposible, y tomar decisiones sobre lo que es más importante en la música" Bob KatzEl proceso de masterización Así pues, ¿qué es lo más importante en tu música? Quizás quieras destacar la voz, o a lomejor trabajas un estilo muy rítmico y quieres primar la presencia de los bombos y bajos. Nohay una misma regla para todos; tu música y tus oídos son los que mandan. De cualquier modo, el proceso de masterización en general sigue unos pasos determinados;nosotros seguiremos el esquema que marca una de las unidades de mastering más reputadas,el TC Electronic Finalizer: I1 e I2 se refieren a las inserciones de efectos que ofrece el Finalizer; hablando en general,antes de pasar a la fase de compresión/limitación, lo normal es aplicar una EQ general eincluso alguna puerta o de-esser para filtrar sibilantes o ruidos si están presentes. Un punto vital a la hora de masterizar es tener unos monitores que ofrezcan nitidez yprecisión en el sonido. Si no escuchamos claramente todos los aspectos de la mezcla,difícilmente e?corregiremos los errores y potenciaremos los aciertos; esto es particularmenteimportante a la hora de ecualizar. El mastering actual usa cada vez más los compresores y limitadores multibanda, queafectan selectivamente a bandas de frecuencias seleccionadas. Son muy eficaces, pero sumanejo requiere cierta destreza y, aunque no lo notes al principio, los ajustes extremospueden provocar fatiga auditiva con más facilidad que en ajustes suaves, buscando mayornaturalidad. El TC Finalizer; un nombre realmente apropiado<!-- pagebreak -->La ecualización Como sabes, la EQ puede cambiar el trazado espectral del sonido; sin embargo, elmayor trabajo de EQ se lleva a cabo en la fase de mezcla, resaltando las característicasdeseadas de cada pista, equilibrándolas y situando cada cosa en su sitio sin producir confusión.En el mastering, la EQ nos servirá para darle un toque final al material; si no has hecho unbuen trabajo con la EQ en la fase de mezcla, seguramente ya será tarde para corregirlo.Repásate nuestro artículo sobre [ la ecualización ] si quieres recordar sus principios. La EQ en la masterización tiene tres objetivos primordiales:· Ajustar el nivel general de bajos, medios y agudos. · Hacer que el nivel general de esas tresbandas de frecuencia suene más uniforme. · Atenuar ciertas frecuencias que causandistorsión, o al revés, potenciar frecuencias que consiguen un sonido más natural. Escucha atentamente la mezcla e intenta captar sus debilidades; ¿demasiado oscura y sinaire? Haz pequeños ajustes en las frecuencias altas. ¿Poco cuerpo? Actúa sobre los rangosmedios. ¿Están demasiado embarullados los graves o retumban los subgraves? Haz cortes o
  • atenúa en esa zona. Como ves, no estamos hablando aquí de resaltar o solapar uninstrumento concreto o una voz; como hemos dicho, eso debe hacerse en la mezcla. Ahoradebes centrarte en el sonido general, considerado como un todo. Un truco es que el contraste de rangos tiene un efecto interactivo; por ejemplo, unapequeña atenuación en el rango inferior de medios (alrededor de 250 Hz) puede tener unefecto similar que potenciar el rango de presencia (alrededor de 5 Khz). Otro truco esrestaurar el "aire" que puede ser perdido incluso dando cortes de medio dB a 7 Khz; estopuede arreglarse a menudo aumentando el rango de 15 a 20 Khz; un cuarto de dB puedesolucionar las cosas. No hay magia en esto; debes guiarte por tus oídos. Pero una buena manera de aprender laofrecen herramientas como el [Steinberg Freefilter], que "copia" los parámetros de EQ de unaonda dada y te permite usarlos en tus producciones. Escoge pues una mezcla profesionale?que tenga características similares a la que tienes entre manos y pásale el FreeFilter; fíjateen los parámetros resultantes y adáptalos a tu mezcla.La normalización Una vez que hemos ajustado la EQ, se habrán producido cambios en la ganancia general delsonido. La normalización aumenta o reduce la amplitud general o nivel de loudness de unaseñal a un punto seleccionado. Generalmente, sirve para llevar el pico de amplitud más alto dela señal justo por debajo del nivel de distorsión (0 dB) Normalizando conseguimos sacar el máximo partido del rango dinámico que dispongamos(en audio digital, es mayor el rango de un archivo de 24 bit que el de otro a 16 bit). Sinembargo, no afecta al rango dinámico relativo de la propia señal de audio; en otras palabras,el rango dinámico entre el material de menor y mayor volumen de la propia señal quedainalterable, pero la señal suena a más volumen en general (aumentan en la misma proporciónlas partes de poco y mucho volumen). Para afectar a esa dinámica de la señal tendremos queacudir a la compresión. Señal sin normalizar (arriba) y normalizada (abajo)<!-- pagebreak -->El expansor Un expansor funciona como una puerta y te ayudará a eliminar ruido de fondo. Prueba aescuchar el principio de tu mezcla, ¿hay algún ruido de grabación o de cinta? Si tiene algo deesto y quieres eliminarlo, utiliza el expansor de la siguiente forma: ajusta el ratio a 1:32 (estoes, la profundidad del expansor). Ahora ajusta el umbral. El expansor comienza a funcionarcuando la señal cae por debajo del punto de umbral; ve jugando con este parámetro mientrasreproduces la música desde el principio un par de veces, hasta que el inicio ya no contengaruidos. Si solo quieres eliminar el ruido de cinta, puede que sea suficiente con utilizar unexpansor multibanda en las bandas agudas.
  • El compresor Un compresor añade pegada extra a tu material (en la foto, el compresor del software T-Racks), dándole cuerpo y ajustando la dinámica general. Si no estás familiarizado con los fundamentos de la compresión, deberías leerte antes nuestroartículo [ Aprende a comprimir tus señales ]; aunque está orientado al proceso de mezcla, losprincipios del compresor son los mismos. Un truco general para el ajuste del compresor a la hora de masterizar es este: busca el threshold aproximado enprimer lugar, con un ratio alto y un tiempo de liberación rápido. Asegúrate de que el medidor de reducción de gananciase mueve a medida que pasan las "sílabas" o partes que quieres afectar. Entonces reduce el ratio a un ajuste muy bajo ycoloca el tiempo de liberación a unos 250 ms para empezar. Ahora se trata de ajustar con precisión el ataque, liberacióny ratio, quizás con algún reajuste en el threshold; el objetivo es situar el threshold entre la dinámica mas baja y más alta,de manera que haya una alternancia constante entre compresión alta y baja (o no-compresión) en la música. Y cuidado:un ajuste de threshold muy bajo y un ratio demasiado alto hará que todo suene al mismo nivel constantemente. Esto para los compresores simples; cuando estás aplicando una compresión multibandatienes que analizar con más detalle la señal a procesar; ¿hay demasiado extremo grave oagudo, o demasiado poco? ¿Está el rango medio bien definido? Si quieres realizar cambios en la relación global de las bandas grave, media y aguda usandoel compresor multibanda, tienes dos rutas a tomar:· La primera forma es modificar los niveles de banda, usándolos como en un ecualizador ·La segunda forma es comprimir individualmente las bandas. Es aquí donde oirás grandesdiferencias. Como regla de oro, la banda grave actúa mejor con tiempos de ataque rápidos y contiempos de liberación algo lentos dado que las frecuencias graves tienen una longitud de ondalarga. En la banda de medios puedes usar prácticamente el mismo tiempo de ataque, pero eltiempo de liberación debería ser algo más rápido dado que el oído humano es muy sensible enesta zona. Si ajustas la liberación de medios demasiado larga sonará artificial. La banda deagudos actúa mejor con un tiempo de ataque un poco más lento que en las otras dos bandas,dado que esto permitirá que las transiciones de frecuencias altas pasen por el compresor. Eldejar que estos picos pasen por el compresor evita el que se produzca el sonido tensionado ysobrecomprimido. El tiempo de liberación de la banda aguda debería ser rápido, como el de losmedios, por la misma razón, para aumentar la apertura del compresor. El compresor multibanda software de WavesEl limitador
  • El limitador debe estar situado a continuación del compresor; esto implica que si usas elcompresor en ajustes extremos, harás que el limitador también vaya a tope. Déjale allimitador un poco de espacio para hacer el trabajo para el que está pensado, que es sujetarel nivel de vez en cuando. Si haces que los niveles de salida del bloque de compresor queden demasiado cerca deltecho del limitador, tu mezcla sonará aplastada. Un uso racional del limitador, especialmenteusando los valores de ratio más suaves posibles, hará que tu mezcla siempre suene natural.Notas finales Utiliza tus oídos en todos los procesos; confía en ellos cuando te dicen que la mezcla suenabien. Juega con el bypass para observar los cambios que producen tus ajustes. Descansacuando lleves demasiado tiempo trabajando en la mezcla; si te agotas perderás la noción delas cosas importantes y cometerás errores. Por Xabier Blanco
  • Técnicas avanzadas de masterizaciónIntroducción Hay quien opina que la masterización no existe, que es un parche a una mala mezcla.Realmente, aunque no estoy totalmente de acuerdo, no deja de tener razón. En general, unabuena mezcla requiere un proceso posterior mínimo. El problema es que, durante elproceso de la mezcla, se tiende a equilibrar unas pistas con otras sin tener claro cómo debesonar el conjunto ?acrecentado por la fatiga auditiva?. Esto se evitaría en gran medidateniendo una pista como referencia constante durante la mezcla o usando un analizador deespectros. Entonces, ¿cuál es el objetivo de la masterización? En primer lugar, conseguiruniformidad entre las pistas, de forma que no existan grandes diferencias de sonido dentrode un mismo trabajo; conseguir que suenen igual en cualquier equipo de audio,corrigiendo picos que han pasado desapercibidos en los monitores de referencia usados en lasmezclas; y ganar algunos dB de volumen medio. En este último punto hay una granpolémica, pero esta nueva tendencia de apurar al máximo el volumen de una canción tiene suexplicación en la psicoacústica. Para el oído humano, una canción que tiene más volumenque otra es percibida como mejor de forma inconsciente. Este curioso efecto es el motivo porel que se tiende a comprimir y limitar al máximo posible cada pista, consiguiendo, en muchoscasos, que la pieza pierda toda la dinámica, siendo este un terrible error. Propongo una situación real y habitual: acabas de terminar de mezclar unos temas y tegustaría que sonasen correctamente en cualquier sistema de audio y que tuvieran coherenciaentre ellas. Sin duda necesitan una masterización, un ajuste común y preciso. Por tanto, cogestus pistas y las cargas en tu editor de audio y te dispones con tus bien conocidos monitores decampo cercano a masterizarlas... Sin duda estás comiendo de entrada tres errores bastanteimportantes: primero, nunca se debe masterizar sin descansar los oidos. Unos oídos viciadostenderán a destacar frecuencias en la mezcla; en segundo lugar, unos monitores de campocercano no son lo más apropiado para masterizar, al no ofrecer una respuesta clara y ampliade todo el espectro; y en tercer lugar, tú no deberías nunca masterizar tus propiasmezclas, puesto que hay detalles que ya pasas por alto por el vicio de escucharlos una y otravez. Por tanto, lo mejor es recurrir a un buen profesional siempre que se pueda.
  • Las condiciones ideales de masterización distan en muchos casos de la mayoría de losestudios de grabación de cualquier categoría. Para estos menesteres se requiere una salatratada acústicamente, para ofrecer una respuesta equilibrada en todas las frecuencias. Nose trata de crear una cámara anecoica; consiste en evitar realces de frecuencias y rebotesdañinos para una correcta audición. Los altavoces son un punto clave: necesitamos escuchartodas las frecuencias sin coloraciones. Es un error habitual en los monitores de campo cercanoy, en menor medida, en los de medio campo, su incapacidad para reproducir frecuenciasgraves, siendo atenuadas las frecuencias por debajo de los 70 Hz. Por tanto, unos monitoresde campo lejano, multivía y habitualmente empotrados, serían el punto de partida idealpara la masterización. Es muy importante, además, disponer de escuchas de distintos tamañosy calidades para poder chequear el material en condiciones cercanas a las que dispondrá elreceptor final. La gran polémica surge en cuanto a qué elementos (y en qué orden son adecuados) parauna masterización. En el artículo anterior se sugería el sistema del Finalizer. Sin duda haycosas fundamentales que no deben faltar en una cadena de masterización: un ecualizador, uncompresor y un limitador. Personalmente, no podría vivir sin un compresor multibanda y unpar de conversores M-S (este elemento lo analizaremos más adelante) y, sin duda, es muysocorrido un excitador aural, pero la gran pregunta es ¿software o hardware? La respuesta:da igual, pero ha de ser de primera calidad. En general, la alternativa software suele ser másbarata a igual calidad. Hoy en día, la solución software es la que ofrece mejor calidad-precio.Existen numerosos paquetes de primerísima línea de Waves, Spectral Design y TC, entre otros.Un ecualizador mediocre o un compresor de baja calidad puede destrozar una mezcla. Encualquier caso, la clave de todo el proceso es que la masterización no arregla una malamezcla.<!-- pagebreak-->La normalización Uno de los objetivos principales de la masterización de un disco es que las canciones seanpercibidas a un mismo nivel medio. Cuando empiezas el ajuste de varias pistas, el primerpaso lógico es normalizarlas de forma que el pico de volumen más grande coincida con elmáximo permitido. En principio esto es innecesario puesto que, mediante la compresión ylimitación, vamos a ajustar las pistas para que suenen todas a un volumen medio similar y alnormalizar podemos perder sutilezas. Sólo cuando una pista muestre un volumen demasiadobajo se requeriría una normalización. Además, en ese caso, si la pista fue mezclada a 16 bits,la normalización puede aumentar el nivel general del ruido de la pista, con lo que es másconveniente volver a la mezcla y subir el nivel de la mezcla.Compresión multibanda Con un compresor multibanda se pueden hacer ajustes muy precisos sobre las distintasbandas. Son útiles para destacar o atenuar instrumentos o frecuencias descontroladas. Ladiferencia más importante con la ecualización es que la ecualización recorta las frecuenciasseleccionadas en todos los casos, mientras que un compresor ajustado a una banda defrecuencias sólo actuará cuando el volumen de esa banda supera el umbralestablecido. El compresor multibanda es muy útil para retocar el equilibrio espectral, peroadquiere su mayor esplendor cuando se usa en modo M-S.Modo M-S Sin duda uno de los procesos más útiles para hurgar en las entrañas de la mezcla. Laconversión M-S consiste en convertir una mezcla de dos canales L-R (izquierda ? derecha,una mezcla estéreo normal) en el formato de dos canales M-S (centro-estéreo), de formaque el canal M contiene la información que se escucha en el centro de la mezcla y el canal Ssólo la información estéreo. El canal S consiste en la señal resultante de restar al canalizquierdo el derecho. El canal M es la suma de la señal resultante de sumar el resultado derestar a cada canal la señal S.M = (L-S)+(R-S) ; S= L-R Para devolverlo al formato L-R, sólo hay que hacer pasar de nuevo el audio por otroconversor M-S.
  • Generalmente, en una mezcla solemos disponer en el canal central de la voz, el bajo, elbombo, la caja y algún instrumento solista y en el canal del estéreo suelen estar charles,rebotes de los ecos, reverberación e instrumentos de adorno. Supongamos que tenemos unamezcla en la que la voz suena demasiado alta; es un gran problema. Si intentamosatenuarla mediante ecualización, probablemente perdamos las guitarras ?panoramizadas a loslados?. Si montamos la siguiente cadena......y ajustamos el compresor multibanda en la banda de la voz, podremos atenuar únicamentela voz sin dañar el resto de los instrumentos.Excitador aural Este elemento fue en el pasado utilizado ampliamente. Cuando la tecnología musical estababajo mínimos, las mezclas eran bastante opacas y llegó a ser tan imprescindible que suinventor sólo los alquilaba. Su principio activo se basa en la restauración de armónicosperdidos durante el proceso de la mezcla, añadiendo brillo. En la actualidad, basándose enel mismo principio, han aparecido un nuevo tipo de excitadores que añaden presencia en elespectro de los graves o incluso los que permiten la selección de la frecuencia central. Con lamejora de los procesos de grabación y mezcla, su uso ya no está tan justificado, aunque enmuy pequeña cantidad puede añadir ese brillo que suele faltar en los masters. Es un efectocon el que es muy fácil pasarse, porque el oido se acostumbra muy rápidamente y se tiende aañadir más de lo necesario.Los medidores Para poder ajustar el nivel entre canciones, es necesario usar medidores fiables. Losvúmetros incorporados en las mesas de mezclas y en los programas suelen ser medidores quereaccionan muy rápido a los transitorios, ideales para evitar distorsión y saturación que, porotro lado, es tan peligrosa en la grabación digital y aparece en cuanto superas los 0dBFS (FS =fondo de escala). Realmente, nuestro oído no escucha así. Aunque tengamos dos cancionescuyos picos máximos llegan al mismo nivel, el volumen medio puede ser diferente. Para podermedir eso, es necesario la utilización de medidores que funcionen en modo RMS (Root MeanSquare). Una medidor en modo RMS proporciona el valor eficaz del volumen. Esta forma demedir es más parecida a la forma que tiene el oído humano de escuchar, motivo, además, porel que los medidores analógicos se siguen usando aún en nuestros días.<!-- pagebreak -->Software de masterización Como comenté al principio del artículo, las soluciones en software para masterizaciónofrecen mayores ventajas que sus equivalentes en hardware. Realmente, se puede masterizarcon cualquier programa que permita añadir plugins de efectos y modificar sus parámetros entiempo real, con lo que abre mucho nuestro abanico, pudiendo ser desde un secuenciador(Pro Tools, Nuendo, Logic, etc.) hasta un editor de audio (Spark, WaveLab, SoundForge, etc.)o un programa especializado (T-Racks). Entre los editores de audio, los más especializados son Spark y WaveLab. Spark permiteel ruteo de la señal a través de distintos efectos, pudiendo separar los canales y procesarlosindependientemente de formas muy complejas. WaveLab trae un rack que permite la carga devarios efectos simultáneos y tienes opciones avanzadas de análisis del audio. Existen otrasopciones como Peak o SoundForge, pero dan menos facilidades a la hora de masterizar. El T-Racks 24 es un programa de masterización integrado completamente autónomo. Sebasa en la emulación de procesadores de válvulas y no soporta plugins de ningún tipo.
  • Dentro de los paquetes de efectos en plugins, confesaré que tres son mis favoritos: DSP-FX,Steinberg Mastering Edition (diseñados por Spectral Design) y los de Waves. DSP-FX es un paquete con algunos años que funciona como plugin DirectX y Saw quecontiene varios procesadores (reverbs, chorus, eco) y, en especial, un excitador aural(Enhancer) y un limitador (Optimizer) fabulosos. Su interfaz es bastante antiguo, pero susonido es fantástico. En particular, el medidor del limitador es muy útil para ajustar el volumenrelativo entre las pistas. El Steinberg Mastering Edition es un paquete de plugins DirectX, VST y WaveLab quecontienen un buen surtido de procesadores especialmente dedicados para la masterización quecontienen todos los elementos necesarios para realizar una masterización completa. Sonplugins de primera calidad entre los que se encuentran el popular FreeFilter (un ecualizadorgráfico con funciones de adaptación de curvas de ecualización), el Loudness Maximizer (unlimitador bastante musical) y el MultiBand Compressor es un buen compresor/expansormultibanda. Waves proporciona varios paquetes de plugins, algunos de ellos muy apropiados para lamasterización. En particular, es muy popular el L1-Ultramaximizer, un limitador maximizadorpara masterización y el Ressinance Compressor, un estupendo compresor que puede emularvarios tipos de compresores, muy suave y cálido. El L1 me resulta demasiado bruto con lalimitación y, de todos los limitadores comentados en este apartado, es el que más deteriora elsonido, cortando muchas veces los picos. Recientemente, Waves ha presentado el L2,descendiente de su versión en rack y que mejora mucho en musicalidad el resultado. Existen otras opciones de muy buena calidad, como el paquete de plugins TC NativeBundle, que ofrece un surtido de herramientas aptas para masterización y, en forma deprograma autónomo, Emagic Waveburner Pro, ideado para la masterización y grabación demasters en CDs.Hardware de masterización En este apartado existen numerosas opciones posibles, siendo muy habituales los equiposantiguos a válvulas. Últimamente han ido apareciendo algunas soluciones ?todo en uno? demano de dbx (Quatum y Quatum II), Drawmer (Masterflow DC2476) y los más populares deTC Electronic con su gama Finalizer, Finalizer 96K y Plus. Por Antonio Escobar
  • Introducción a la síntesis substractivaPara empezar... A diferencia del resto de instrumentos, que tienen un timbre propio cuya esencia no puedemodificarse sin afectar a la naturaleza del instrumento, los sintetizadores pretenden construirnuevos sonidos. Un piano puede tocarse de diversas maneras, pero siempre sonará como unpiano; los sintetizadores aspiran a crear su propio sonido, algo completamente original en elmás amplio sentido de la palabra. Por hacer una comparación, podemos decir que el sonido deun piano es un rompecabezas ya montado que puede pintarse de mil colores, y el de unsintetizador es un rompecabezas que está por hacer. Hay muchas maneras de crear sonidos a partir de la nada o de pocos elementos (esto es,de sintetizarlos), pero la síntesis substractiva se ha mostrado como la más popular. A partirde su nombre (sustraer = restar) podemos intuir su esencia: un sintetizador substractivo partede una señal dada y la modifica y filtra para alcanzar un sonido concreto mediante una seriede procesos. En un principio, esta cadena de procesos estaba separada; es por esto que los primeros sintetizadores eran modulares. Cada módulo realizaba una función en la síntesis, y los módulos podían interconectarse entre sí de muchas maneras. Sin embargo, siendo esta una solución muy flexible, resultaba demasiado complicada, y poco a poco pasó a estandarizarse una serie fija de módulos que se utilizaban siempre, conectados de la misma manera, y se integraron juntos en un solo sistema y un solo aparato. Seguramente esta fuela mayor aportación del Moog Minimoog (en la foto), el substractivo más famoso de lahistoria; así funcionan ahora la mayoría de los sintetizadores. En esta cadena de procesos, el sonido básico nace de un oscilador, al que puedenaplicársele filtros con los que se seleccionan las frecuencias deseadas. Esta señal puede serafectada por las envolventes y el LFO, que les dan dinámica y expresividad. Finalmente, elsonido se amplifica y sale al exterior. Y pasamos a explicar todo esto...Partes de la síntesis substractivaLos osciladores Son las fuentes primarias del sonido de un sinte substractivo. Los osciladores de losprimeros tiempos producían ondas eléctricas controladas por voltaje (eran los VCO, VoltageControlled Oscillator). Estos componentes eléctricos, al oscilar, generaban ondas sonorasbásicas que luego podían ser filtradas y procesadas para resultar en el timbre deseado. Muchagente hoy busca sintetizadores basados en VCOs por su calidez sonora y su comportamiento aveces impredecible, dado que los VCO solían ser inestables en cuanto a su afinación. El problema de la inestabilidad se resolvió en los primeros años 80 con la aparición de losDCO (Digital Controlled Oscilator). Estos osciladores seguían produciendo ondas eléctricas,pero eran controladas por un chip digital que evitaba las variaciones imprevistas de tono. Lafamosa saga Juno de Roland pertenece a esta familia de sintes. Actualmente, los sintetizadoresdigitales han eliminado la necesidad de incluir componentes eléctricos para los osciladores,recreándolos mediante simulaciones o muestras. Podemos encontrarnos con diversos tipos de onda generados por los osciladores. Las másbásicas son estas (pulsa sobre ellas para escuchar un mp3; y cuidado, que "pitan" a bastantevolumen):
  • Senoidal Cuadrada Sierra Pulso Con ciertos aparatos digitales no estamos anclados a ondas de tipo eléctrico, ya que nospermiten utilizar muestras. Esto abre nuevas posibilidades: por ejemplo, si usamos muestrasde instrumentos acústicos, procesándolos de la manera adecuada, podemos conseguirimitaciones de gran realismo.Los filtros Son circuitos que sólo dejan pasar una serie de frecuencias seleccionadas. Como en el casode los osciladores, inicialmente eran controlados por voltaje (VCF), y más adelante por chipsdigitales (DCF). Los filtros totalmente digitales cumplen la misma función, pero simulándola abase de cálculos matemáticos. En general, nos encontramos con distintas clases de filtrossegún el efecto que produzcan; estos son los más elementales:· Paso-alto: deja pasar todas frecuencias que superen un valor dado (el llamado cutoff o cortede filtro), eliminando las que queden por debajo.· Paso-bajo: deja pasar todas frecuencias que no superen el cutoff, y elimina todas las demásque quedan por encima.· Paso-banda y banda eliminada: Deja pasar solamente o elimina las frecuencias comprendidasen un rango determinado (el llamado ancho de banda o Q). Muchas veces se incluye en el filtro un circuito de realimentación al que llamamosresonador; lo que hace es aumentar o disminuir la amplificación en las frecuencias máscercanas al punto de corte. Si añadimos más o menos resonancia, esas frecuencias destacaráncon mayor o menor intensidad. Un efecto ya clásico de la música electrónica moderna es elbarrido de filtro, que normalmente se realiza configurando una resonancia alta y abriendo elcutoff de un filtro paso-bajo desde las frecuencias más bajas a las más altas, descubriendo asígradualmente todo el espectro del sonido.> Pulsa [aquí] para escuchar un barrido de filtro de un sonido arpegiado básico. Adviertecomo empieza a sonar sólo en las frecuencias bajas y progresivamente se van incorporandolas medias y altas (MP3 247 Kb). Otro factor a destacar de los filtros es el número de polos o su pendiente. Estacaracterística se refiere a la la capacidad del filtro para atenuar o aumentar un mayor o menornúmero de frecuencias, es decir, a su suavidad o agresividad. Actualmente los más habitualesson los de 2, 4 o 6 polos, ya que ir más allá de los 8 polos resulta complejo y caro. Un filtro de2 polos tiene una pendiente de 12dB por octava; uno de 4, 24dB por octava, y el de 6, 48 dBpor octava.<!-- pagebreak --> Las envolventes Como las ondas generadas por los osciladores son continuas y sin matices, necesitamos ungenerador de envolvente para dotarles de dinámica y expresividad. Con el filtro podemosvariar el contenido armónico, pero las envolventes nos permiten además aplicar cambios en eltiempo (dinámicos), afectando a distintos parámetros. Actúan por "pasos" progresivos, y losmás básicos son:· Ataque (attack): indica el tiempo que tardará un parámetro en alcanzar su nivel máximo,partiendo del nivel cero.· Decaimiento (decay): una vez que el parámetro llega al nivel máximo, transcurrido el tiempode ataque, entra en la fase de decaimiento; se refiere al tiempo que tarda el parámetro encaer a un nivel ya sostenido.· Sostenimiento (sustain): marca el nivel al que permanece el parámetro durante el tiempo desustain.
  • · Liberación (release): transcurrido el tiempo de sostenimiento, llega la fase final; la liberaciónnos marcará el tiempo que tarda el parámetro en caer del nivel sostenido al nivel cero. Por las iniciales de estos pasos decimos que esa envolvente es de tipo ADSR; hayenvolventes más complejas, con más pasos intermedios, pero en general son variaciones delmismo concepto. Por otra parte, según cuáles sean los parámetros a los que afectan lasenvolventes, pueden clasificarse de esta manera:· Envolvente de tono: afecta a la afinación de los osciladores. Por ejemplo, si configuramosesta envolvente con un ataque largo, el sonido tardará cierto tiempo en alcanzar su tononormal, haciendo así un efecto de glissando.· Envolvente de amplitud: afecta al volumen de salida del amplificador. Si escogemos aquí unataque rápido, el sonido comenzará a sonar a su máxima potencia de inmediato (apropiadopara un bajo). Si elegimos un ataque largo, el sonido empezará a escucharse a un volumenbajo e irá subiendo poco a poco (característico de los pads o de un oboe, por ejemplo).· Envolvente de filtro: afecta al funcionamiento del filtro. Esto permite controlarlo para queactúe no en todo momento, sino en diferentes puntos en el tiempo y de diversas maneras. Siconfiguramos un filtro paso-bajo con el corte situado en las frecuencias más bajas, y elegimosun tiempo de ataque largo para esta envolvente, el sonido comenzará mostrando todas susfrecuencias y gradualmente irá eliminando las medias y altas, sin necesidad de actuarmanualmente sobre el filtro.El oscilador de baja frecuencia (LFO, Low Frequency Oscillator) Este oscilador difiere de los comentados anteriormente en que produce su sonido en lasfrecuencias subsónicas (las más graves), y se utiliza para modular y controlar al resto deparámetros del sintetizador, más que para crear sonido tonal. El hecho de que sea un osciladornos permite modular el sonido de manera repetitiva, en bucles. Por ejemplo, si aplicamos unLFO al amplificador, podemos conseguir un efecto de tremolo, que será mas o menos rápidosegún cómo configuremos la velocidad de oscilación del LFO. De la misma manera, yaplicándolo al tono, conseguiremos un vibrato. Estos efectos serán más o menos intensosdependiendo del ratio que escojamos para el LFO. Por Xabier Blanco
  • Grabación de guitarras: Nociones básicasTu guitarra Tengas una Paul Reed Smith de Luthier o una imitación de Telecaster de 100 euros, tuguitarra siempre tiene que estar a punto para tocar, y esto supone una serie de detalles queno dejaremos aparte por obvios que nos parezcan. Siempre que vayas a grabar utiliza cuerdas nuevas; las cuerdas usadas pierden su colorpor determinados factores. Tampoco hay que ser neuróticos con esto, pero si tienes unagrabación importante y quieres que tu guitarra esté en las mejores condiciones, debes usarcuerdas nuevas. Chequea tu afinación siempre que puedas, antes de cada toma incluso. Lo ideal es ponerun afinador que tenga salida thru y tenerlo conectado siempre. Si eres un guitarrista amantedel vibrato, tus cuerdas se desafinarán con facilidad. Comprueba siempre que la guitarra estébien octavada, es decir que la afinación sea igual en el traste 12 que con la cuerda al aire. Pon especial atención a las interferencias, sobre todo las causadas por los monitores deordenador. Busca en la sala la posición adecuada en donde las interferencias sean menores, yen la medida de lo posible apaga esos monitores para matar el problema. Usa diferentes tipos de guitarras o de sonidos cuando quieras tenerlos bien separadosen la mezcla, y ecualízalos de manera que no se estorben en el espectro de frecuencias,dándole espacio en la mezcla a cada uno de los sonidos atenuando o realzando frecuencias. Si tenemos pistas de sobra, las técnicas modernas de grabación en disco duro nos permitenhacer varias tomas de un mismo solo para así elegir después la mas acertada o unacombinación de ellas. Habitualmente, los efectos en el estudio se aplican durante la mezcla;sin embargo, en el caso concreto de los guitarristas es importante que el sonido se grabeprocesado para comodidad del ejecutante, especialmente si lleva un wah wah, un delay oalgo que influya sobremanera a la hora de interpretar. Efectos como una reverb se puedenmonitorizar durante la grabación grabando la señal seca y aplicándola después. Lo importantees que el guitarrista se sienta cómodo con su sonido mientras lo ejecuta. <!-- pagebreak -->La grabación Experimenta. Esto es esencial, no hay una técnica correcta a la hora de grabar unaguitarra. Los factores a tener en cuenta una vez tengamos nuestra guitarra a punto sonprincipalmente:· Microfonía· Multiefectos· Amplificadores
  • Aquí hay todo un mundo de técnicas, posiciones, trucos... trataremos de sugerir unos cuantos, pero lo esencial es que cojas tu equipo y que juegues con él. El mejor truco es el que uno mismo ha descubierto, ha probado y ha visto que es el adecuado para conseguir el sonido que persigue en cada situación. Nos limitaremos a exponer unas cuantas propuestas a modo de puntos de partida, para llegar al fin deseado: tener nuestro propio sonido y controlar todos sus aspectos. Juega con las posiciones de los micros. Utiliza uno o varios. Ponlos en ángulo recto apuntando hacia el altavoz, pon uno detrás, mezcla las diferentes señales... Todo esposible, lo importante es experimentar Si quieres que tu ampli suene con menos graves, levántalo del suelo y ponlo en alto. Por elcontrario si lo que buscas es un sonido con graves demoledores, ponlo en una esquina. En estesentido, la distancia entre el micro y el ampli suele desempeñar un papel esencial. Habitualmente, situar el micro enfrente del altavoz a un palmo (o menos) de distancia,dará como resultado un sonido grave, con cuerpo y "punch" ("pegada"). Conforme vayamosaumentando la distancia, el sonido se hará más ligero, brillante y "ventilado". Y ahora una cuestión: ¿es posible conseguir un sonido redondo, lleno, sin hacer un usoabusivo de los graves y la saturación? La respuesta es... difícil lo tienes. Pero puedes intentarun truco usado por Eddie Van Halen, y que consiste en la utilización de dos microssimultáneamente. Uno de ellos lo colocas enfrente del cono del altavoz, dejando una distanciasuficiente para evitar el desagradable zumbido del exceso de graves. El otro micrófono,enfócalo hacia la esquina del altavoz... dejando un espacio mayor que en el otro caso. De estamanera obtendrás un sonido más rico y denso, muy apropiado para que tus solos guitarrerosno recuerden al cascajo de Extremoduro, Reincidentes, y demás pandilla. Resulta desconcertante observar cómo muchos guitarristas no se desprenden de su ShureSM57 ni para ir a la ducha. Sin embargo, otros rastrean hasta en los cubos de basura paraencontrar micros o accesorios deliberadamente viejos, con la intención de sonar parecido aalguien, en algún disco, editado algunas décadas atrás. Toca en la sala de control si es que tienes la posibilidad, y así podrás oir por los monitoreslo que se esta grabando exactamente a través de los micros. De lo contrario, puedes llevarteuna gran decepción (con el consiguiente cabreo), al comprobar que ese magífico riff que acabas de interpretar, lleno de destreza y sentimiento... debe ser repetido porque no ha sonado exactamente como tú pensabas que estaba sonando. O mejor dicho: al cacharro que graba no le ha sonado igual que a ti. Así que asegúrate bien y experimenta desde la cabina, antes de dar pasos en falso. Graba la señal del ampli con los micros y a la vez, graba la guitarra por linea o con algún efecto y experimenta con ambas señales en la mezcla Si buscas engordar tu sonido, trata de tocar lo mismo en dos pistas diferentes; es una alternativa menos artificial que un chorus, y puede dar resultadosinteresantes paneando las tomas. Pero cuidado, ya lo dijo Yngwie Malmsteen en una de lascélebres entrevistas/vaciladas que solía conceder... "demasiado a menudo, 2 pistassimúltaneas no se suman... sino que se restan". Otro experimento curioso es colocar un micro en la guitarra y recoger el sonido de la púa yde las cuerdas; conseguirás una pista brillante para añadir a la mezcla. Como ejemplopráctico, escucha Been Caught Stealin, tema de los alucinantes Janes Addiction, donde DaveNavarro aplica esta técnica. Cuidado con las puertas de ruido, utilízalas con cabeza; sidecides usar una, ponla después de la distorsión, pero antes de un delay o una reverb, paraque la puerta no se coma la cola de la reverb o la cola del delay.
  • En definitiva, todo esto es papel mojado si lo aplicas de forma autómata. Lo importante esescuchar atentamente lo que estás tocando; lo ideal sería tener a un técnico que pongamicrófonos mientras tocas y que vaya cambiando el tipo de micrófono y la dirección haciadonde apunta, hasta que oigas que el sonido se adapta a lo que quieres conseguir. Esperamos haber abierto vuestra curiosidad con estas 4 pinceladas sobre grabación deguitarras. Es tu turno; te toca ir al estudio y empezar a crear tu propio mundo de sonidos. Por Pablo Surja
  • El protocolo MIDINociones básicas: el lenguaje MIDI MIDI (Musical Instruments Digital Interface) es el lenguaje que utilizan actualmente muchos instrumentos para comunicarse entre ellos, enviar y recibir datos y sincronizarse. Nació dentro del mundo de los sintetizadorescomo respuesta a una necesidad de los músicos: controlar varios equipos con sus dosmanos y hacer capas de varios sonidos entre ellos. Los primeros resultados de esta nuevatecnología se mostraron en el North American Music Manufacturers Show de 1983 en LosÁngeles. La demostración consistió en dos sintetizadores de distintos fabricantes conectadospor MIDI con un par de cables; el representante de una de esas dos compañías tocó uno delos sintetizadores... ¡y el público se alborotó entre muecas de asombro al ver como losteclados sonaban juntos! Al igual que dos ordenadores pueden conectarse por módem, dosinstrumentos que soporten el protocolo MIDI pueden comunicarse. La información MIDI tieneun carácter netamente musical: se refiere a comandos play-stop, activación de nota, tempo,volumen, etc, aunque su uso avanzado permite muchas mas posibilidades.En este punto vale la pena hacer una aclaración para los más novatos. Uno de los mitos másrecurrentes entre los no iniciados es que el MIDI es algo material, un formato de sonidoen sí mismo. Eso ha llevado a las tópicas y erróneas expresiones "escucha este MIDI queacabo de hacer", "estoy buscando el MIDI de esta canción", y el más inocente de todos ellos,"quiero pasar este WAV a MIDI". Todos estos conceptos se basan en una mala comprensióndel MIDI. El MIDI es un protocolo de comunicación, un conjunto de comandos que circulanentre dispositivos MIDI dando órdenes a los mismos respecto a lo que deben hacer. Lo quesuena son los aparatos, no "el MIDI" que, además, tiene otras funciones aparte de controlar laejecución de sonidos. Cuando alguien pregunta "cómo pasar de WAV a MIDI", está en lamisma situación que aquel que tiene una foto digital (un JPG por ejemplo) de un texto yquiere que esa foto se convierta en formato TXT para usarlo en un procesador de textos. Asícomo el WAV y el JPG son "fotos" digitales de una realidad material (el sonido y la imagen), elMIDI y el TXT son lenguajes que indican a ciertos dispositivos qué deben hacer. En el caso deun sintetizador, el MIDI le dice qué notas deben sonar, a qué volúmenes, etc; y en el caso deun procesador de textos, el TXT le dice qué caracteres deben presentarse, en qué formato...Es cierto que existen las tecnologías OCR para leer caracteres a partir de una foto, pero estatécnica está implementada en el audio digital con menos fortuna. Existen programas quepueden identificar tonos a partir de un wav y construir mensajes MIDI a partir de ellos, peronormalmente solo funciona con WAVs monofónicos y no muy complejos.Volviendo al tema que nos ocupa, conviene hablar un poco del funcionamiento interno de estelenguaje para entender cómo se comporta. La base de la comunicación MIDI es el byte (unaunidad de información digital). Cada comando MIDI tiene una secuencia de bytes específica. Elprimer byte es el byte de estado (status byte), que le dice al dispositivo MIDI qué funciónactivar. Codificado en ese byte de estado va el canal MIDI. El MIDI opera en 16 canalesdiferentes, numerados del 0 al 15. Las unidades MIDI aceptarán o ignorarán un byte deestado dependiendo de en qué canal estén configuradas para recibir datos. Sólo este byte deestado tiene codificado el número de canal, ya que los demás bytes de la cadena se asumeque circulan en el canal indicado por el byte de estado.Algunas de las funciones que puede activar el byte de estado son estas: Note On, Note Off,System Exclusive (SysEx), Patch Change, y otras. Así pues, dependiendo del byte de estado,le seguirán un numero diferente de bytes. Por ejemplo, el estado Note On le dice al dispositivoMIDI que empiece a hacer sonar una nota. Así pues, se requerirán dos bytes adicionales al deestado; uno que indique el tono de la nota (pitch byte) y otro que marque la velocidad de lamisma (velocity byte). Este último byte de velocidad es el que determina con que fuerza hasido pulsada esa nota. Aunque no todos los dispositivos MIDI aceptan el byte de velocidad -especialmente los aparatos antiguos o algunos modernos de gama baja-, sigue siendo un byterequerido para completar la cadena.Y ¿para qué citamos aquí todo este farragoso sistema de datos? Es importante hacer notarahora una limitación del lenguaje MIDI, y es su transmisión en serie. Por un cable MIDIdiscurren todos esos bytes que hemos citado... pero uno detrás de otro, no todos a la vez.Esto tiene implicaciones prácticas: por ejemplo, si tenemos un teclado controlador conectado
  • a un sampler y estamos enviando datos MIDI al sampler desde el teclado, al pulsar un acordede varias notas no llegarán todas juntas al sampler, sino una detrás de otra. El proceso sehace a gran velocidad y no hay retardos audibles en este ejemplo, pero en una cadenainterconectada de dispositivos MIDI sí podrían surgir problemas, como indicaremos acontinuación. Por todo esto, es importante tener una idea de lo que realmente transmiten losdatos MIDI: qué bytes y en qué orden.Conexiones y cadenas MIDI Seguramente ya estás familiarizado con esas conexiones de 5 pines de tus teclados o aparatos MIDI, etiquetadas como IN, OUT y THRU. Alrededor de estos tres conectores girará todo nuestro sistema MIDI. Por los puertos MIDI IN de un aparato se recibirán todos los mensajes MIDI y por el MIDI OUT cada aparato enviará lossuyos. La conexión MIDI THRU es algo que desconcierta a los más novatos, pero no tieneningún misterio y es de gran utilidad para configurar una cadena. Lo que hace el MIDI THRUes copiar los datos que se reciben por el MIDI IN de ese aparato y enviarlos de nuevo haciafuera. Aunque del MIDI THRU salgan datos MIDI, no debe confundirse con el MIDI OUT; deeste último salen solamente los datos enviados por el mismo aparato, mientras que del THRUsale la copia de los datos recibidos por el aparato en su MIDI IN.¿Cuál es la utilidad de este MIDI THRU? Básicamente, enlazar unos aparatos con otros en unacadena, de manera que todos respondan a una fuente de datos MIDI inicial. Como ejemplopráctico, si tenemos un secuenciador MIDI del que nacen todos nuestros mensajes de controly queremos enviarlos a 2 aparatos distintos, tendríamos que establecer la siguiente cadena:En nuestro esquema, el secuenciador envía sus datos MIDI por la salida MIDI OUT (A); estosdatos son recibidos por el sintetizador a traves de su MIDI IN (B), y reenviados por el MIDITHRU (C) hacia el sampler, que los recibe, lógicamente, por su MIDI IN (D). Así pues, losdatos del secuenciador estarían siendo recibidos por los dos aparatos, ya que el primero(sintetizador) los recibe directamente por su MIDI IN, y al mismo tiempo los copia y losreenvía por su MIDI THRU hacia el sampler.Como ya habrás imaginado, podríamos seguir conectando dispositivos MIDI en esta cadena,simplemente enlazándolos con el MIDI THRU. Por ejemplo si queremos añadir otrosintetizador, podríamos enviar el MIDI THRU del sampler hacia su MIDI IN. De todos modos,por la cuestión antes mencionada de que el MIDI se transmite en serie, no conviene enlazaruna cadena demasiado larga por MIDI THRU, ya que el último aparato de esta cadena podríasufrir retardos al recibir los mensajes. Por esta razón, muchos secuenciadores tienen variassalidas MIDI, para poder enviar los mismos datos en distintas series a diferentes aparatos sinutilizar las conexiones THRU, o al menos reduciéndolas. Por ejemplo, si nuestro secuenciadortuviese dos MIDI OUT, el esquema anterior no necesitaría el uso de la cadena THRU:simplemente conectariamos el sintetizador y el sampler a cada una de esas dos salidas, yambos recibirían los datos del secuenciador al mismo tiempo.
  • Mensajes MIDI: teoríaYa sabemos que gracias al MIDI podemos controlar varios equipos, establecer relacionesentre ellos y sincronizarlos. Imaginando que nuestros aparatos MIDI son los componentes deuna tropa de soldados, y nosotros los capitanes, lo más importante ahora será conocer quéordenes podemos enviar para que cumplan su misión. Al igual que una tropa obediente,nuestro equipo de dispositivos MIDI funcionará correctamente si sabemos qué mensajesenviarles y si estos son correctos.De esta manera, nos encontramos con las siguientes categorías de mensajes que podemosenviar: Se llaman así porque actúan solamente en el canal que se determine. Son de dos tipos: · Mensajes de voz: Se basan en la interpretación; por ejemplo: Note on (activación de una nota), Note off (desactivación), Program Change (cambio de timbre) o Control Change (cambio de controlador, también llamado Mensajes CC; estos se enumeran de 0 a 127, y algunos están de canal determinados como estándar, p.e: el CC 7 es el control de volumen y el CC 10 es el pan) · Mensajes de modo: Indican a un sintetizador como debe distribuir las voces internas; básicamente son estos: Omni on/off (si se reciben mensajes por todos los canales -on- o solo por uno predeterminado -off-) y Mono on/off (indica si cada canal tocará solo una nota -on-, o será polifónico -off-) No afectan solo a un canal, sino a todo el sistema, y son de tres tipos: · Mensajes comunes: por ejemplo, los de afinación general de un sintetizador. · Mensajes de tiempo real: pensados para secuenciadores (start-stop, mensajes de reloj, etc) Mensajes de sistema · Mensajes SysEx: su nombre deriva de "sistema exclusivo". Sirven para que diferentes dispositivos de la misma marca y modelo intercambien información (por ejemplo, acerca de sonidos, síntesis, efectos, etc.). Cada dispositivo MIDI suele traer funciones propias, no generales a todos los demás dispositivos, y por ello son necesarios estos mensajes, que son "exclusivos" de esa marca y modelo.Mensajes MIDI: prácticaTodo esto está muy bien, pero ¿lo necesito para mi trabajo práctico? Descartando los tipos demensajes más elementales y de menor importancia (por ejemplo, no hace falta pararsedemasiado sobre los evidentes usos del Note on-off o la afinación), la respuesta es sí: por esonos centraremos ahora en aquellos que es necesario dominar para controlar nuestrosequipos con precisión. · Cambio de banco y programa: Tenemos un sintetizador o sampler repleto de sonidos interesantes, pero ¿cómo acceder a ellos desde el exterior, p.e. desde un secuenciador u otro teclado? La respuesta nos la dan estos dos mensajes: Bank Change y Patch Change. Son los que indicarán al dispositivo MIDI qué timbre debe sonar por cada canal (recordemos que son mensajes de canal y sólo afectarán al canal que determinemos).-Patch Change: Como en el resto del protocolo MIDI, disponemos de la numeración 0 a 127para escoger cualquier sonido de una fuente externa. Si tuvieramos un sintetizador con 32memorias para patches (por ejemplo, el clásico Yamaha DX7), para escuchar el sonidonúmero 20 mandaríamos un mensaje Patch Change 19 (no el 20, porque el 0 ya cuenta como
  • primer número). Pero claro, esto nos limitaría a escoger 128 sonidos, cuandos los aparatosactuales pueden contener muchos más. Es por ello que estos aparatos ordenan sus sonidos endistintas series de 128 sonidos, llamadas "bancos". Así pues, un sintetizador con 512 patchestendría que dividirlos en 4 bancos de 128.-Bank Change: Este es el mensaje que nos da definitivamente un acceso total a los patches deun dispositivo con mas de 128 sonidos. Siguiendo con nuestro ejemplo de un sintetizador quetenga 512 sonidos, organizados en 4 bancos: si quisiéramos seleccionar el sonido 138, o paraentendernos mejor, el décimo sonido del segundo banco, tendríamos que mandar un mensajede Bank Change 1 y a continuación, un Patch Change 9. Date cuenta de que ésta es unaexplicación simplificada; la mayoria de los sintetizadores tienen números específicos paradesignar sus bancos; por ejemplo, el banco A de un sinte podría requerir un Bank Change 64u otro, no tendría por qué ser el 0. Lo hemos explicado así para hacerlo de una manera másgráfica. Para saber qué mensajes de banco debes enviar a tu sinte, consulta en su manual.· Controladores: los mensajes CC (Control Change) nos dan acceso a un montón defunciones importantes que afectan a cada canal. Podemos mandar -lo adivinaste- 128mensajes CC distintos, y a cada uno asignarle un valor. Por ejemplo, un mensaje CC 7(volumen) con valor 120 subirá el volumen de ese canal a 120. Un mensaje CC 10 (pan) convalor 80, colocará la panoramización de ese canal ligeramente a la derecha, dado que 64 seconsidera el centro. Algunos CC han sido estandarizados, y tienen la misma función encualquier dispositivo MIDI que te encuentres. El resto no tienen ninguna función asignada enprincipio, de modo que cada fabricante puede dársela a su gusto. Para saber a qué mensajesCC responde tu dispositivo, tendrás que consultar su tabla de implementación MIDI. Por lopronto, nosotros te ofrecemos aqui nuestra tabla de mensajes de control MIDI.· SysEx: Dado que estos mensajes dependen de cada fabricante, no vamos a citar ninguno enconcreto aquí porque, por ejemplo, un mensaje SysEx que variase la profundidad del efecto"chorus" en un Roland no valdría para un Yamaha. Pero sí los destacamos porque son los quepermiten acceder a las "tripas" de tus dispositivos. Los SysEx asustan a todo el mundo, yrealmente tienen cierta complejidad, pero si se dominan abren un mundo nuevo de controltotal sobre tus máquinas. Aquí te animamos a curiosear e investigar acerca de los SysEx, perono es el objeto de este artículo profundizar sobre ellos.
  • Equipo MIDI básico Sin duda, los dispositivos MIDI más tradicionales son los sintetizadores. El MIDI se diseñó para comunicarlos entre sí, y esa función desde luego sigue vigente. El MIDI te permite utilizar varios teclados o módulos de sonido a la vez; de esta manera puedes hacer que un sonido de un sinte sea reforzado por el sonido de otro, o simplemente hacer arreglos polifónicos y multitímbricos con varias máquinas sincronizadas.Hay que aclarar aquí la típica confusión de principiante entre sintetizador y teclado. Elsintetizador (o sampler, dado el caso) es el generador de sonido, y el teclado simplementeenvía mensajes MIDI indicando qué notas deben tocarse y con qué fuerza. Como la mayoríade sintetizadores llevan teclado incluido, mucha gente cree que son inseparables. Pero no esasí; hay sintetizadores sin teclado (los llamados "módulos de sonido") y teclados sinsintetizador. Estos últimos son los teclados maestros.Con la simplificación de los estudios caseros actuales, mucha gente utiliza los llamadosteclados maestros o controladores, que no incorporan ningún sonido. Simplemente envíandatos MIDI para controlar a otros aparatos (por ejemplo, sintes virtuales). Esto abarata suprecio y hace que la producción musical sea más accesible a todos, si bien los tecladosmaestros de gama alta pueden ser muy caros. Algunos fabricantes famosos son FATAR (sumodelo SL-161 en la foto de abajo), Oberheim, Midiman, Roland o Yamaha.Domina tu equipo externo
  • El centro de una instalación MIDI es el secuenciador, que centraliza la grabación y reproducción de todos los mensajes MIDI, su edición y sincronización. Lo normal es que esté basado en un programa de ordenador, dado que los ordenadores ofrecen mayor potencia que cualquier sistema de secuenciación hardware, y muestran sus datos en monitores de gran tamaño que facilitan las tareas. Sin embargo, para actuar en directo muchos prefieren la seguridad de los secuenciadores hardware; algunos ejemplos clásicos de estos aparatos son el Alesis MMT-8 (foto izquierda) o el Roland MC-50. Tambiénse utilizan los viejos ordenadores Atari y Amiga para este fin.Los secuenciadores software más famosos son sin duda Logic (foto abajo), Cubase yCakewalk (o su reciente actualización, SONAR). Cakewalk es el más extendido en América,y los otros dos son líderes en el mercado europeo. Cualquiera de ellos es altamente capaz,destacando especialmente Logic por su environment configurable. Otros programas famososson el Digital Performer de MOTU o la saga Orchestrator de Voyetra; ciertos editores departituras como Finale tienen funcionalidades de secuenciador MIDI, así como algunossistemas multipista de audio como Pro Tools o Nuendo. Todos ellos manejan un gran númerode pistas a la vez, así que esto no será un límite.Si dispones de varias máquinas MIDI y quieres tener uncontrol absoluto sobre ellas, todo debe estar bienconectado y debe gestionarse principalmente desde elsecuenciador. Desde este programa podrás grabartodos tus equipos por pistas, y luego cortar, copiar yeditar las secuencias. Tú solo podrás completar unarreglo complejo de muchas pistas. Lo normal escomenzar grabando una pista base, y luego ir grabandolas demás por encima, mientras suenan las anterioresque has grabado. Así el tema se irá "construyendo" y solo se requiere la intervención de una persona. Una primera idea para conectar varios equipos entre ellos es la cadena THRU, ya explicada en la primera parte de este tutorial. Sin embargo, si tienes muchos equipos, se producirá latencia en los últimos dispositivos de la cadena. La solución a esto es utilizar un interface MIDI dotado de varios puertos de salida y no de uno sólo. Esto evita las cadenas THRU, o al menos las minimiza: si tu interface MIDI tiene cuatro salidas, puedes dominar cuatro dispositivos directamente, y todos los mensajes les llegarán a un mismo tiempo.Como hemos dicho, el protocolo MIDI funciona de una manera serial, pero esto es así porcada puerto; es decir, si disponemos de varios puertos, actuarán de manera separada, sinacumular sus datos unos a otros. Existen muchos interfaces de este tipo en el mercado;algunas marcas fabricantes son Midiman (a la izquierda, su Midisport 2x2), Egosys, MOTU,Steinberg y Emagic. Todas ellas ofrecen diversos modelos dependiendo de sus salidas yentradas MIDI. También algunas tarjetas de sonido incorporan dos o más puertos MIDI deentrada y salida, pero es raro y lo normal es que solo lleven uno o ninguno.Para gestionar las librerías de sonidos de tus sintetizadores y editar sus patches víaMIDI existen también soluciones software muy útiles, que evitarán en muchas ocasiones elenfrentamiento con esos pequeños displays de tus máquinas. ¿Cuántos se han atrevido aeditar los sonidos un DX7 desde el frontal de la máquina? Utilizando estos programas podráshacer esas tareas de manera remota, aprovechándote de la capacidad de almacenamiento yorganización de tu ordenador y una mayor claridad y comodidad gracias a la pantalla grande.Sound Diver de Emagic y SoundQuest son dos ejemplos de gestores-editores totales, queincluyen plantillas para un amplio número de aparatos, pero hay también una multitud deeditores más sencillos, que sólo se ocupan de una máquina concreta. La mayoría de estosúltimos son gratuitos; busca por la red el que corresponda a tu sintetizador.Domina tu equipo virtual
  • Con la implantación cada vez mayor de los sintetizadores y samplers virtuales, muchos usuarios han empezado a demandar un control más manual sobre ellos. El ratón no parece convencer a la hora de controlar con precisión estos programas, y es por ello que los fabricantes han dado una alternativa: los controladores MIDI externos. Estos dispositivos adoptan la forma de mesas o consolas con faders o knobs configurables, y se limitan a enviar datos MIDI como CCso sysex, que controlan las funciones del software. Así como para tocar un sintetizador virtualnecesitarás un teclado maestro que le envíe mensajes MIDI, para controlarlo como si fuerahardware, con botones, deslizadores y demás, necesitarás una de estas máquinas. Suprincipal ventaja es que no se limitan a un solo sintetizador virtual; al utilizar el protocolouniversal MIDI, pueden dominar cualquier dispositivo software que siga estasespecificaciones. Esto incluye, por supuesto, a las máquinas hardware que admitan sucontrol a partir de mensajes CC o sysex externos.La oferta de controladores va en aumento, y desde el ya clásico Keyfax Phatboy (fotoizquierda) han aparecido muchos otros, como el Doepfer Pocket, Native Instruments4Control, Phillip Rees C16 o ya a un nivel más ambicioso, el Kenton Control Freak,Peavey 1600 o Doepfer Drehbank.Flautas, guitarras... y otras rarezas MIDI Se han fabricado toda una diversidad de aparatos MIDI muy "especiales", sobre todo en lo referente a controladores. El hecho de que el MIDI sea un protocolo estándar, universal, hace que cualquier dispositivo compatible pueda integrarse en la cadena, y las posibilidades son múltiples. Por ejemplo, Yamaha ofrece su controlador de viento WX5 (a la izquierda), que es una especie de saxofón-flauta que envía datos MIDI basándose en el soplido. Hay módulos de sonido especiales para este controlador, como el Yamaha VL-70m, que imita los timbres de viento reales mediante modelado físico. Pero como el WX5 es MIDI, puede controlar cualquier cosa... podrías tocar un violín o unas marimbas usando este curioso aparato. Los guitarreros también tienen sus propios dispositivos MIDI. Acoplando una pastilla MIDI a tu guitarra puedes convertir su señal en datos MIDI que podrán controlar un sintetizador de guitarra (como el Roland GR-30 o 50)... o lo que tú quieras. El mundo de los controladores MIDI se ha ido convirtiendo en toda una caja de sorpresas, y cada vez nos topamos con máquinas mŽsa innovadoras y originales. Si te gustaron las arpas láser de Jarre, Roland te ofrece sus sistemas D-Beam en muchos de sus teclados y sintetizadores; se trata de un rayo que, al ser interrumpido a diferentes alturas y ángulos, genera diferentes mensajes MIDI que modifican el sonido. Tabla: mensajes de controladores MIDI 0 Bank select
  • 1 Modulation wheel2 Breath control3 Indefinido4 Foot controller5 Portamento time6 Data Entry7 Channel Volume8 Balance9 Indefinido10 Pan11 Expression Controller12 Effect control 113 Effect control 214 Indefinido15 Indefinido16 General Purpose Controller #117 General Purpose Controller #218 General Purpose Controller #319 General Purpose Controller #420 Indefinido21 Indefinido22 Indefinido23 Indefinido24 Indefinido25 Indefinido26 Indefinido27 Indefinido28 Indefinido29 Indefinido30 Indefinido31 Indefinido32 Bank Select33 Modulation wheel34 Breath control35 Indefinido36 Foot controller37 Portamento time38 Data entry39 Channel Volume40 Balance41 Indefinido42 Pan43 Expression Controller44 Effect control 145 Effect control 246 Indefinido47 Indefinido48 General Purpose Controller #149 General Purpose Controller #250 General Purpose Controller #351 General Purpose Controller #452 Indefinido53 Indefinido54 Indefinido55 Indefinido56 Indefinido57 Indefinido58 Indefinido59 Indefinido
  • 60 Indefinido61 Indefinido62 Indefinido63 Indefinido64 Damper pedal on/off (Sustain)65 Portamento on/off66 Sustenuto on/off67 Soft pedal on/off68 Legato Footswitch69 Hold 270 Sound Controller 1 (Sound Variation)71 Sound Controller 2 (Timbre)72 Sound Controller 3 (Release Time)73 Sound Controller 4 (Attack Time)74 Sound Controller 5 (Brightness)75 Sound Controller 676 Sound Controller 777 Sound Controller 878 Sound Controller 979 Sound Controller 1080 General Purpose Controller #581 General Purpose Controller #682 General Purpose Controller #783 General Purpose Controller #884 Portamento Control85 Indefinido86 Indefinido87 Indefinido88 Indefinido89 Indefinido90 Indefinido91 Effects 1 Depth92 Effects 2 Depth93 Effects 3 Depth94 Effects 4 Depth95 Effects 5 Depth96 Data entry +197 Data entry -198 Non-Registered Parameter Number LSB99 Non-Registered Parameter Number MSB100 Registered Parameter Number LSB101 Registered Parameter Number MSB102 Indefinido103 Indefinido104 Indefinido105 Indefinido106 Indefinido107 Indefinido108 Indefinido109 Indefinido110 Indefinido111 Indefinido112 Indefinido113 Indefinido114 Indefinido115 Indefinido116 Indefinido117 Indefinido118 Indefinido
  • 119 Indefinido120 All Sound Off121 Reset All Controllers122 Local control on/off123 All notes off124 Omni mode off (+ all notes off)125 Omni mode on (+ all notes off)126 Poly mode on/off (+ all notes off)127Poly mode on (incl mono=off +all notes off) Tabla: conversión para delaysAquí tenéis una útil tabla de conversión para ajustar los delays digitales al tempo.
  • BPM 1/4 1/8 1/16(Tempo) 60 1000.00 500.00 250.00 61 983.61 491.80 245.90 62 967.74 483.87 241.94 63 952.38 476.19 238.10 64 937.50 468.75 234.38 65 923.08 461.54 230.77 66 909.09 454.55 227.27 67 895.52 447.76 223.88 68 882.35 441.18 220.59 69 869.57 434.78 217.39 70 857.14 428.57 214.29 71 845.07 422.54 211.27 72 833.33 416.67 208.33 73 821.92 410.96 205.48 74 810.81 405.41 202.70 75 800.00 400.00 200.00 76 789.47 394.74 197.37 77 779.22 389.61 194.81 78 769.23 384.62 192.31 79 759.49 379.75 189.87 80 750.00 375.00 187.50 81 740.74 370.37 185.19 82 731.71 365.85 182.93 83 722.89 361.45 180.72 84 714.29 357.14 178.57 85 705.88 352.94 176.47 86 697.67 348.84 174.42 87 689.66 344.83 172.41 88 681.82 340.91 170.45 89 674.16 337.08 168.54 90 666.67 333.33 166.67 91 659.34 329.67 164.84 92 652.17 326.09 163.04 93 645.16 322.58 161.29 94 638.30 319.15 159.57 95 631.58 315.79 157.89 96 625.00 312.50 156.25 97 618.56 309.28 154.64 98 612.24 306.12 153.06 99 606.06 303.03 151.52 100 600.00 300.00 150.00 101 594.06 297.03 148.51 102 588.24 294.12 147.06 103 582.52 291.26 145.63 104 576.92 288.46 144.23 105 571.43 285.71 142.86 106 566.04 283.02 141.51 107 560.75 280.37 140.19 108 555.56 277.78 138.89 109 550.46 275.23 137.61 110 545.45 272.73 136.36 111 540.54 270.27 135.14 112 535.71 267.86 133.93 113 530.97 265.49 132.74 114 526.32 263.16 131.58 115 521.74 260.87 130.43 116 517.24 258.62 129.31 117 512.82 256.41 128.21 118 508.47 254.24 127.12 119 504.20 252.10 126.05
  • 120 500.00 250.00 125.00121 495.87 247.93 123.97122 491.80 245.90 122.95123 487.80 243.90 121.95124 483.87 241.94 120.97125 480.00 240.00 120.00126 476.19 238.10 119.05127 472.44 236.22 118.11128 468.75 234.38 117.19129 465.12 232.56 116.28130 461.54 230.77 115.38131 458.02 229.01 114.50132 454.55 227.27 113.64133 451.13 225.56 112.78134 447.76 223.88 111.94135 444.44 222.22 111.11136 441.18 220.59 110.29137 437.96 218.98 109.49138 434.78 217.39 108.70139 431.65 215.83 107.91140 428.57 214.29 107.14141 425.53 212.77 106.38142 422.54 211.27 105.63143 419.58 209.79 104.90144 416.67 208.33 104.17145 413.79 206.90 103.45146 410.96 205.48 102.74147 408.16 204.08 102.04148 405.41 202.70 101.35149 402.68 201.34 100.67150 400.00 200.00 100.00151 397.35 198.68 99.34152 394.74 197.37 98.68153 392.16 196.08 98.04154 389.61 194.81 97.40155 387.10 193.55 96.77156 384.62 192.31 96.15157 382.17 191.08 95.54158 379.75 189.87 94.94159 377.36 188.68 94.34160 375.00 187.50 93.75161 372.67 186.34 93.17162 370.37 185.19 92.59163 368.10 184.05 92.02164 365.85 182.93 91.46165 363.64 181.82 90.91166 361.45 180.72 90.36167 359.28 179.64 89.82168 357.14 178.57 89.29169 355.03 177.51 88.76170 352.94 176.47 88.24171 350.88 175.44 87.72172 348.84 174.42 87.21173 346.82 173.41 86.71174 344.83 172.41 86.21175 342.86 171.43 85.71176 340.91 170.45 85.23177 338.98 169.49 84.75178 337.08 168.54 84.27179 335.20 167.60 83.80180 333.33 166.67 83.33
  • Tabla: cuadrar diferentes unidades de tiempoEsta tabla sirve para cuadrar unidades de medida diferentes, ya que el tempo se mide en beatspor minuto (BPM), el tiempo en segundos y la longitud en compases. ¿Cómo usar la tabla?Por ejemplo, si queremos encajar 18 segundos en 9 compases, necesitaremos segun la tablaun tempo de 120 BPM. BPM Compases
  • Segundos 4 5 6 7 8 9 10 11 12 13 14 16 60.0 75.0 90.0 105.0 120.0 135.0 150.0 165.0 180.0 195.0 210.0 17 56.5 70.6 84.7 98.8 112.9 127.1 141.2 155.3 169.4 183.5 197.6 18 53.3 66.7 80.0 93.3 106.7 120.0 133.3 146.7 160.0 173.3 186.7 19 50.5 63.2 75.8 88.4 101.1 113.7 126.3 138.9 151.6 164.2 176.8 20 48.0 60.0 72.0 84.0 96.0 108.0 120.0 132.0 144.0 156.0 168.0 Segundos 9 10 11 12 13 14 15 16 17 18 19 26 83.1 92.3 101.5 110.8 120.0 129.2 138.5 147.7 156.9 166.2 175.4 27 80.0 88.9 97.8 106.7 115.6 124.4 133.3 142.2 151.1 160.0 168.9 28 77.1 85.7 94.3 102.9 111.4 120.0 128.6 137.1 145.7 154.3 162.9 29 74.5 82.8 91.0 99.3 107.6 115.9 124.1 132.4 140.7 149.0 157.2 30 72.0 80.0 88.0 96.0 104.0 112.0 120.0 128.0 136.0 144.0 152.0 Segundos 14 15 16 17 18 19 20 21 22 23 24 36 93.3 100.0 106.7 113.3 120.0 126.7 133.3 140.0 146.7 153.3 160.0 37 90.8 97.3 103.8 110.3 116.8 123.2 129.7 136.2 142.7 149.2 155.7 38 88.4 94.7 101.1 107.4 113.7 120.0 126.3 132.6 138.9 145.3 151.6 39 86.2 92.3 98.5 104.6 110.8 116.9 123.1 129.2 135.4 141.5 147.7 40 84.0 90.0 96.0 102.0 108.0 114.0 120.0 126.0 132.0 138.0 144.0Tabla: rango de frecuencias de los instrumentos musicales Instrumento Fundamental Armónicos Flauta 261-2349 3-8 KHz Oboe 261-1568 2-12 KHz Clarinete 165-1568 2-10 KHz Fagot 62-587 1-7 KHz Trompeta 165-988 1-7.5 KHz
  • Trombón 73-587 1-4 KHz Tuba 49-587 1-4 KHz Tambor 100-200 1-20 KHz Bombo 30-147 1-6 KHz Platillos 300-587 1-15 KHz Violín 196-3136 4-15 KHz Viola 131-1175 2-8.5 KHz Cello 65-698 1-6.5 KHz Bajo acústico 41-294 1-5KHz Bajo eléctrico 41-300 1-7 KHz Guitarra acústica 82-988 1-15 KHz Guitarra eléctrica (amplif.) 82-1319 1-3.5 KHz Guitarra eléctrica (directa) 82-1319 1-15 KHz Piano 28-4196 5-8 KHz Saxo Soprano 247-1175 2-12 KHz Saxo alto 175-698 2-12 KHz Saxo tenor 131-494 1-12 KHz Cantante 87-392 1-12 KHz Calculo de los tiempos de retardo en los ecosSi hay un cálculo recurrente, siempre que nos enfrentamos a ajustar un eco, es el del retardo de lasetapas. Este efecto debe estar sincronizado con el tempo del tema , tarea no demasiado sencilla deentrada. Para facilitarnos las cosas, existe una sencilla fórmula: T = (Divisiones x 240.000) / BPMdonde T = milisegundos (ms), Divisiones es la unidad de medida del compás (1/16 = semicorchea,1/4 = negra) y BPM el tempo de la canción en beats per second (golpes por segundo).
  • A continuación, una tabla muestra, de forma orientativa, algunos tiempos de retardo. Tiempo 1/16 1/12 (ms) BPM 1 2 3 4 5 6 7 8 1 2 4 5 60 250 500 750 1000 1250 1500 1750 2000 333 667 1333 1667 65 231 462 692 923 1154 1385 1615 1846 308 615 1231 1538 70 214 429 643 857 1071 1286 1500 1714 286 571 1143 1429 75 200 400 600 800 1000 1200 1400 1600 267 533 1067 1333 80 188 375 563 750 938 1125 1313 1500 250 500 1000 1250 85 176 353 529 706 882 1059 1235 1412 235 471 941 1176 90 167 333 500 667 833 1000 1167 1333 222 444 889 1111 95 158 316 474 632 789 947 1105 1263 211 421 842 1053 100 150 300 450 600 750 900 1050 1200 200 400 800 1000 105 143 286 429 571 714 857 1000 1143 190 381 762 952 110 136 273 409 545 682 818 955 1091 182 364 727 909 115 130 261 391 522 652 783 913 1043 174 348 696 870 BPM 1/16 1/8 3/16 1/4 5/16 3/8 7/16 1/2 1/12 1/6 1/3 5/12 120 125 250 375 500 625 750 875 1000 167 333 667 833 125 120 240 360 480 600 720 840 960 160 320 640 800 130 115 231 346 462 577 692 808 923 154 308 615 769 135 111 222 333 444 556 667 778 889 148 296 593 741 140 107 214 321 429 536 643 750 857 143 286 571 714 145 103 207 310 414 517 621 724 828 138 276 552 690 150 100 200 300 400 500 600 700 800 133 267 533 667 155 97 194 290 387 484 581 677 774 129 258 516 645 160 94 188 281 375 469 563 656 750 125 250 500 625 165 91 182 273 364 455 545 636 727 121 242 485 606 170 88 176 265 353 441 529 618 706 118 235 471 588 175 86 171 257 343 429 514 600 686 114 229 457 571 180 83 167 250 333 417 500 583 667 111 222 444 556 Tabla: Marcas y modelos de micros para cada uso AKG D112 (dinámico), AKG D12 (dinámico), Bombo Sennheiser MD421 (dinámico) Shure SM-57 (dinámico), Sennheiser Caja MD421(dinámico), AKG 414 (condensador) Hi-hat Shure SM-57, Shure SM-81, Neumann KM-184 Timbales Sennheiser 609s (dinámico), MD421, SM-57 Shure KSM-32 (condensador), Shure KSM-44 Superiores y (condensador), Neumann TLM 103 (condensador), platillos Neumann U87 (condensador), Neumann U89, KM-184 (condensador), AKG 414
  • AKG-414, AT-4050, AT-4033, U-87, U-89, TLM-103, Micros de sala KM-184 SM-57, MD421, AKG 414, Sennheiser MD441 Guitarras (dinámico) AKG D112, AKG D12, Shure Beta 52 (dinámico), Bajos MD421 AKG-C1000, AKG-C3000, AKG-414, AT-4050, AT- Voz 4033, U-87, TLM-103, Rode N1, Rode N2 Piano U-87, TLM-103, KSM-32/44, AKG-414 Guitarra AKG-C1000, AKG-C3000, AKG-414, AT-4050, AT- acústica 4033, U-87, TLM-103 Por Ken LanyonTabla de tiempos para DelayDelay BPM Delay BPM Delay BPM Delay BPM3.000 20 0.741 81 0.423 142 0.296 2032.857 21 0.732 82 0.420 143 0.294 2042.727 22 0.723 83 0.417 144 0.293 2052.609 23 0.714 84 0.414 145 0.291 2062.500 24 0.706 85 0.411 146 0.290 2072.400 25 0.698 86 0.408 147 0.288 2082.308 26 0.690 87 0.405 148 0.287 209
  • 2.222 27 0.682 88 0.403 149 0.286 2102.143 28 0.674 89 0.400 150 0.284 2112.069 29 0.667 90 0.397 151 0.283 2122.000 30 0.659 91 0.395 152 0.282 2131.935 31 0.652 92 0.392 153 0.280 2141.875 32 0.645 93 0.390 154 0.279 2151.818 33 0.638 94 0.387 155 0.278 2161.765 34 0.632 95 0.385 156 0.276 2171.714 35 0.625 96 0.382 157 0.275 2181.667 36 0.619 97 0.380 158 0.274 2191.622 37 0.612 98 0.377 159 0.273 2201.579 38 0.606 99 0.375 160 0.271 2211.538 39 0.600 100 0.373 161 0.270 2221.500 40 0.594 101 0.370 162 0.269 2231.463 41 0.588 102 0.368 163 0.268 2241.429 42 0.583 103 0.366 164 0.267 2251.395 43 0.577 104 0.364 165 0.265 2261.364 44 0.571 105 0.361 166 0.264 2271.333 45 0.566 106 0.359 167 0.263 2281.304 46 0.561 107 0.357 168 0.262 229Delay BPM Delay BPM Delay BPM Delay BPM1.277 47 0.556 108 0.355 169 0.261 2301.250 48 0.550 109 0.353 170 0.260 2311.224 49 0.545 110 0.351 171 0.259 2321.200 50 0.541 111 0.349 172 0.258 2331.176 51 0.536 112 0.347 173 0.256 2341.154 52 0.531 113 0.345 174 0.255 2351.132 53 0.526 114 0.343 175 0.254 2361.111 54 0.522 115 0.341 176 0.253 237
  • 1.091 55 0.517 116 0.339 177 0.252 2381.071 56 0.513 117 0.337 178 0.251 2391.053 57 0.508 118 0.335 179 0.250 2401.034 58 0.504 119 0.333 1801.017 59 0.500 120 0.331 1811.000 60 0.496 121 0.330 1820.984 61 0.492 122 0.328 1830.968 62 0.488 123 0.326 1840.952 63 0.484 124 0.324 1850.938 64 0.480 125 0.323 1860.923 65 0.476 126 0.321 1870.909 66 0.472 127 0.319 1880.896 67 0.469 128 0.317 1890.882 68 0.465 129 0.316 1900.870 69 0.462 130 0.314 1910.857 70 0.458 131 0.313 1920.845 71 0.455 132 0.311 1930.833 72 0.451 133 0.309 1940.822 73 0.448 134 0.308 1950.811 74 0.444 135 0.306 196Delay BPM Delay BPM Delay BPM Delay BPM0.800 75 0.441 136 0.305 1970.789 76 0.438 137 0.303 1980.779 77 0.435 138 0.302 1990.769 78 0.432 139 0.300 2000.759 79 0.429 140 0.299 2010.750 80 0.426 141 0.297 202