Música electrónica
La música electrónica es aquel tipo de música que emplea para su producción e interpretación instrumentos electrónicos y tecnología musical electrónica.
En general, puede distinguirse entre el sonido producido utilizando
medios electromecánicos de aquel producido utilizando tecnología
electrónica. Ejemplos de dispositivos que producen sonido
electromecánicamente son el telarmonio, el órgano Hammond y la guitarra eléctrica. La producción de sonidos puramente electrónica puede lograrse mediante aparatos como el theremin, el sintetizador de sonido y el ordenador.
La música electrónica se asoció en su día exclusivamente con una forma de música culta occidental, pero desde finales de los años 1960,
la disponibilidad de tecnología musical a precios accesibles permitió
que la música producida por medios electrónicos se hiciera cada vez más
popular. En la actualidad, la música electrónica presenta una gran
variedad técnica y compositiva, abarcando desde formas de música culta
experimental hasta formas populares como la música electrónica de baile.
Finales del siglo XIX hasta comienzos del XX
La habilidad de grabar sonidos suele relacionarse con la producción
de música electrónica, si bien no es absolutamente necesaria para ello.
El primer dispositivo conocido capaz de grabar sonido fue el fonoautógrafo, patentado en 1857 por Édouard-Léon Scott de Martinville. Podía grabar sonidos visualmente, pero no estaba hecho para reproducirlos de nuevo.1
En 1878, Thomas A. Edison patentó el fonógrafo, que utilizaba cilindros similares al aparato de Scott. Aunque se siguieron utilizando los cilindros durante algún tiempo, Emile Berliner
desarrolló el fonógrafo de disco en 1887. Un invento significativo, que
posteriormente tendría una gran importancia en la música electrónica,
fue la válvula audión, del tipo tríodo, diseñada por Lee DeForest. Se trata de la primera válvula termoiónica,
inventada en 1906, que permitiría la generación y amplificación de
señales eléctricas, la emisión de radio, la computación electrónica, y
otras variadas aplicaciones.
Con anterioridad a la música electrónica, existía un creciente deseo
entre los compositores de utilizar las tecnologías emergentes en el
terreno musical. Se crearon multitud de instrumentos que empleaban
diseños electromecánicos, los cuales allanaron el camino para la
aparición de instrumentos electrónicos. Un instrumento electromecánico
llamado Telharmonium (en ocasiones Teleharmonium o Dynamophone) fue desarrollado por Thaddeus Cahill
en los años 1898-1912. Sin embargo, como consecuencia de su inmenso
tamaño, nunca llegó a adoptarse. Se suele considerar como el primer
instrumento electrónico el Theremin, inventado por el profesor Léon Theremin alrededor de 1919–1920.2 Otro primitivo instrumento electrónico fue el Ondes Martenot, que se hizo conocido al ser utilizado en la obra Sinfonía Turangalila por Olivier Messiaen. También fue utilizado por otros compositores, especialmente franceses, como Andre Jolivet.
Nueva estética de la música
En 1907, justo un año después de la invención del tríodo audion, Ferruccio Busoni publicó Esbozo de una Nueva Estética de la Música,
que trataba sobre el uso tanto de fuentes eléctricas como de otras en
la música del futuro. Escribió sobre el futuro de las escalas
microtonales en la música, posibles gracias al Dynamophone de Cahill:
"solo mediante una larga y cuidadosa serie de experimentos, y un
continuo entrenamiento del oído, puede hacerse este material desconocido
accesible y plástico para la generación venidera, y para el arte".
Como consecuencia de este escrito, así como a través de su contacto
personal, tuvo Busoni un profundo efecto en multitud de músicos y
compositores, especialmente en su discípulo Edgard Varèse.
Futurismo
En Italia, el futurismo
se acercó a la estética musical en transformación desde un ángulo
diferente. Una idea fuerza de la filosofía futurista era la de valorar
el "ruido", así como dotar de valor artístico y expresivo a ciertos
sonidos que anteriormente no habían sido considerados ni siquiera
remotamente como musicales. El "Manifiesto Técnico de la Música
Futurista" de Balilla Pratella, publicado en 1911, establece que su
credo es: "presentar el alma musical de las masas, de las grandes
fábricas, de los trenes, de los cruceros transatlánticos, de los
acorazados, de los automóviles y aeroplanos. Añadir a los grandes temas
centrales del poema musical el dominio de la máquina y el victorioso
reinado de la electricidad".
El 11 de marzo de 1913, el futurista Luigi Russolo publicó su manifiesto "El arte de los ruidos" (en italiano
en original, "L'arte dei Rumori"). En 1914, organizó el primer
concierto del "arte de los ruidos" en Milán. Para ello utilizó su
Intonarumori, descrito por Russolo como "instrumentos acústico
ruidistas, cuyos sonidos (aullidos, bramidos, arrastramientos,
gorgoteos, etc.) eran manualmente activados y proyectados mediante
vientos y megáfonos". En junio se organizaron conciertos similares en
París.
1920–1930
Esta década trajo una gran riqueza de instrumentos electrónicos
primitivos así como las primeras composiciones para instrumentación
electrónica. El primer instrumento, el Etherophone, fue creado por Léon
Theremin (nacido Lev Termen) entre 1919 y 1920 en Leningrad, aunque fue posteriormente renombrado como el Theremin.
Gracias a él se realizaron las primeras composiciones para instrumento
electrónico, opuestas a aquellas realizadas por los que se dedicaban a
crear sinfonías de ruidos. En 1929, Joseph Schillinger compuso su Primera Suite Aerofónica para Theremin y Orquesta, interpreatada por primera vez por la Orquesta de Cleveland y Leon Theremin como solista.
Además del Theremin, el Ondes Martenot fue inventado en 1928 por Maurice Martenot, quien debutó en París.3 El año siguiente, Antheil
compuso por primera vez para dispositivos mecánicos, aparatos
productores de ruidos, motores y amplificadores en su ópera inacabada Mr. Bloom.
La grabación de sonidos dio un salto en 1927, cuando el inventor
estadounidense J. A. O'Neill desarrolló un dispositivo para la grabación
que utilizaba un tipo de cinta recubierta magnéticamente. No obstante,
fue un desastre comercial. Dos años más tarde, Laurens Hammond abrió una empresa dedicada a la fabricación de instrumentos electrónicos. Comenzó a producir el Órgano Hammond, basado en los principios del Telharmonium junto a otros desarrollos como las primeras unidades de reverberación.
El método foto óptico de grabación de sonido utilizado en el cine
hizo posible obtener una imagen visible de la onda de sonido, así como
sintetizar un sonido a partir de una onda de sonido.
En la misma época, comenzó la experimentación del arte sonoro, cuyos primeros exponentes incluyen a Tristan Tzara, Kurt Schwitters, Filippo Tommaso Marinetti y otros.
1940-1950
Música concreta
Desde alrededor de 1900 se utilizaba el magnetófono de alambre magnético de baja fidelidad (lo-fi).4 y a comienzos de los años 1930 la industria cinematográfica comenzó a convertirse a los nuevos sistemas de grabación de sonido ópticos basados en células fotoeléctricas.5 En esta época la empresa alemana de electrónica AEG desarrolla el primer magnetófono de cinta práctico, el "Magnetophon" K-1, revelado en el Berlin Radio Show en agosto de 1935.6
Durante la Segunda Guerra Mundial, Walter Weber redescubrió y aplicó la técnica AC bias,
que incrementó dramáticamente la fidelidad de las grabaciones
magnéticas al añadir una frecuencia alta inaudible. Extendió en 1941 la
curva de frecuencia del Magnetophone K4 hasta 10 kHz y mejoró la relación señal/ruido hasta 60 dB7 sobrepasando cualquier sistema de grabación conocido en aquel tiempo.
En 1942, AEG ya estaba realizando pruebas de grabación en estéreo.8
No obstante, estos dispositivos y técnicas fueron un secreto fuera de
Alemania hasta el final de la Guerra, cuando varios de estos aparatos
fueron capturados y llevados a Estados Unidos por Jack Mullin
y otros. Estos grabadores capturados sirvieron de base para los
primeros grabadores de cinta profesionales que fueron comercializados en
Estados Unidos, el Model 200 producido por la empresa Ampex.
La cinta de audio magnética abrió un vasto campo de posibilidades
sonoras para músicos, compositores, productores e ingenieros. La cinta
de audio era relativamente barata y muy confiable, y su fidelidad en la
reproducción mejor que cualquier otro medio de audio conocido hasta la
fecha. Más importantemente, y a diferencia de los discos, ofrecía la
misma plasticidad que la película: puede ser ralentizada, acelerada o
incluso reproducirse al revés. Puede editarse también físicamente,
incluso sólo segmentos de la cinta. O unirse diferentes trozos de cinta
en loops infinitos que reproducen continuamente determinados patrones de
material pregrabado. La amplificación de audio y el equipo de mezcla
expandieron todavía más allá las posibilidades de la cinta como medio de
producción, permitiendo que múltiples grabaciones fueran grabadas a la
vez en otra cinta diferente. Otra posibilidad de la cinta era su
capacidad de ser modificada fácilmente para convertirse en máquinas de eco para producir de modo complejo, controlable y con gran calidad efectos de eco y reverberación (lo que es prácticamente imposible de conseguir por medios mecánicos).
Pronto los músicos comenzaron a utilizar el grabador de cinta o
magnetófono para desarrollar una nueva técnica de composición llamada música concreta.
Esta técnica consiste en la edición de fragmentos de sonidos de la
naturaleza o de procesos industriales grabados conjuntamente. Las
primera piezas de "musique concrète" fueron creadas por Pierre Schaeffer, quien colaboró con Pierre Henry. En 1950, Schaeffer dio el primer concierto (no emitido) de música concreta en la École Normale de Musique de Paris. Posteriormente ese año, Pierre Henry colaboró con Schaeffer en la Symphonie pour un homme seul
(1950), la primera obra importante de música concreta. En París en
1951, en lo que se convertiría en una tendencia global, RTF creó el
primer estudio para la producción de música electrónica. También en
1951, Schaeffer y Henry produjeron una ópera, Orpheus, para sonidos y voces concretos.
Elektronische Musik
Karlheinz Stockhausen
trabajó brevemente en el estudio de Schaeffer en 1952, y posteriormente
durante muchos años en el Estudio de Música Electrónica de la WDR de Colonia en Alemania.
En Colonia, el que se convertiría en el estudio de música electrónica
más famoso del mundo, inició actividades en la radio de la NWDR en 1951, después de que el físico Werner Meyer-Eppler, el técnico de sonido Robert Beyer y el compositor Herbert Eimert
(que se convertiría en su primer director, hasta 1962), convencieran al
director de la NWDR, Hanns Hartmann, de la necesidad de dicho espacio.
El mismo año de su creación, 1951, fueron transmitidos los primeros
estudios de música electrónica en un programa vespertino de la propia
radio y presentados en los Cursos de Verano de Darmstadt.
En 1953 hubo una demostración pública en la sala de conciertos de
la Radio de Colonia donde se dejaron escuchar siete piezas
electrónicas. Los compositores de los estudios electrónicos eran
Herbert Eimert, Karel Goeyvaerts, Paul Gredinger, Henry Pousseur y Karlheinz Stockhausen.
El programa comprendía las siguientes piezas:
- Karlheinz Stockhausen: Estudio II
- Herbert Eimert: Glockenspiel
- Karel Goeyvaerts: Composición No. 5
- Henry Pousseur: Sismogramas
- Paul Gredinger: Formantes I y II
- Karlheinz Stockhausen: Estudio I
- Herbert Eimert: Estudio sobre mezclas de sonido
En su tesis de 1949, Elektronische Klangerzeugung: Elektronische Musik und Synthetische Sprache, Meyer-Eppler concibió la idea de sintetizar música enteramente desde señales producidas electrónicamente. De esta manera, la elektronische Musik se diferenciaba abruptamente respecto a la musique concrète francesa, que utilizaba sonidos grabados a partir de fuentes acústicas.
Con Stockhausen y Mauricio Kagel
como residentes, el estudio de música electrónica de Colonia se
convirtió en un emblema del avant garde, cuando se empezó ya a combinar
sonidos generados electrónicamente con los de instrumentos
tradicionales. Ejemplos significativos son Mixtur (1964) y Hymnen, dritte Region mit Orchester
(1967). Stockhausen afirmó que sus oyentes le decían que su música
electrónica les daba una experiencia de "espacio exterior", sensaciones
de volar, o de estar en "un mundo de ensueño fantástico".
Música electrónica japonesa
Si bien los primeros instrumentos eléctrico como el Ondes Martenot, el Theremin y el Trautonium eran poco conocidos en Japón con anterioridad a la Segunda Guerra Mundial,
algunos compositores habían tenido conocimiento de ellos en su momento,
como Minao Shibata. Varios años tras la Segunda Guerra Mundial,
diferentes músicos en Japón comenzaron a experimentar con música
electrónica, a lo que contribuyó el apoyo institucional, lo que permitió
a los compositores experimentar con el último equipamiento de grabación
y procesamiento de audio. Estos esfuerzos dieron lugar a una forma
musical que fusionaba la música asiática con un nuevo género y sembraría
las bases del dominio japonés en el desarrollo de tecnología musical
durante las siguientes décadas.
Tras la creación de la compañía Sony (conocida entonces como Tokyo Tsushin Kogyo K.K.) en 1946, dos compositores japoneses, Toru Takemitsu
y Minao Shibata, de modo independiente escribieron sobre la posibilidad
de utilizar la tecnología electrónica para producir música hacia
finales de los años 1940. Hacia 1948, Takemitsu concibió una tecnología
que pudiera "traer ruido dentro de tonos musicales atemperados dentro de
un pequeño y complejo tubo", una idea similar a la musique concrète que Pierre Schaeffer
había aventurado el mismo año. En 1949, Shibata escribió sobre su
concepto de "un instrumento musical con grandes posibilidades de
actuación" que pudiera "sintetizar
cualquier tipo de onda de sonido" y que sea "manejado muy fácilmente,"
prediciendo que con un instrumento tal, "la escena musical sería
cambiada drásticamente". Ese mismo año, Sony desarrolló el magnetófono magnético G-Type.
En 1950, el estudio de música electrónica Jikken Kobo sería fundado
por un grupo de músicos que querían producir música electrónica
experimental utilizando magnetófonos Sony. Entre sus miembros estaban
Toru Takemitsu, Kuniharu Akiyama y Joji Yuasa,
y estaba apoyado por Sony, empresa que ofrecía acceso a la última
tecnología de audio. La compañía contrató a Takemitsu para componer música electroacústica electrónica para mostrar sus magnetófonos. Más allá del Jikken Kobo, muchos otros compositores como Yasushi Akutagawa, Saburo Tominaga y Shiro Fukai también estaban experimentando con música electroacústica entre 1952 y 1953.
Música electrónica estadounidense
En Estados Unidos, se utilizaban sonidos creados electrónicamente para diferentes composiciones, como ejemplifica la pieza Marginal Intersection de Morton Feldman. Esta pieza está pensada para vientos, metales, percusión, cuerdas, dos osciladores y efectos de sonido.
El Music for Magnetic Tape Project fue formado por miembros de la Escuela de Nueva York (John Cage, Earle Brown, Christian Wolff, David Tudor y Morton Feldman) y duró tres años hasta 1954. Durante esta época, Cage completó su Williams Mix, en 1953.
Música estocástica
Un importante desarrollo lo constituyó la aparación de ordenadores
utilizados para componer música, en contraposición de la manipulación o
creación de sonidos. Iannis Xenakis comenzó lo que se conoce como "musique stochastique" o música estocástica, un método de componer que emplea sistemas matemáticos de probabilidad estocásticos.
Se utilizaban diferentes algoritmos de probabilidad para crear piezas
bajo un set de parámetros. Xenakis utilizó papel gráfico y una regla
para ayudarse a calcular la velocidad de las trayectorias de los glissandos para su composición orquestal Metastasis (1953-1954), pero posteriormente pasó a utilizar ordenadores para componer piezas como ST/4 para cuarteto de cuerda y ST/48 para orquesta.
Mediados hasta finales de los 1950
En 1954, Stockhausen compuso su Elektronische Studie II, la primera pieza electrónica en ser publicada como banda sonora.
En 1955, aparecieron más estudios electrónicos y experimentales.
Fueron notables la creación del Studio de Fonologia, un estudio en el NHK de Tokio fundado por Toshiro Mayuzumi, y el estudio de Phillips en Eindhoven, Holanda, que se trasladó a la Universidad de Utrecht como Instituto de Sonología en 1960.
La banda sonora de Forbidden Planet, de Louis y Bebe Barron, fue compuesta completamente mediante circuitos caseros y magnetófonos en 1956.9
El primer computador del mundo en reproducir música fue el CSIRAC, que fue diseñado y construido por Trevor Pearcey y Maston Beard. El matemático Geoff Hill programó el CSIRAC para tocar melodías de música popular. No obstante, el CSIRAC
reproducía un repertorio estándar y no fue utilizado para ampliar el
pensamiento musical o para tocar composiciones más elaboradas.
El impacto de los computadores continuó en 1956. Lejaren Hiller y Leonard Isaacson compusieron Iliac Suite
para un cuarteto de cuerda, la primera obra completa en ser compuesta
con la asistencia de un computador utilizando un algoritmo en la
composición. Posteriores desarrollos incluyeron el trabajo de Max Mathews en Bell Laboratories, quien desarrolló el influyente programa MUSIC I. La tecnología de vocoder fue otro importante desarrollo de esta época.
En 1956, Stockhausen compuso Gesang der Jünglinge, la primera gran obra del estudio de Colonia, basado en un texto del Libro de Daniel. Un importante desarrollo tecnológico fue la invención del sintetizador Clavivox por Raymond Scott, con ensamblaje de Robert Moog.
El sintetizador RCA Mark II Sound Synthesizer
apareció en 1957. A diferencia de los primeros Theremin y Ondes
Martenot, era difícil de usar, requería una extensa programación, y no
podía tocarse en tiempo real. En ocasiones denominado el primer
sintetizador electrónico, el RCA Mark II Sound Synthesizer utilizaba
osciladores de válvula termoiónica e incorporaba el primer secuenciador. Fue diseñado por RCA e instalado en el Columbia-Princeton Electronic Music Center, donse sigue actualmente. Posteriormente, Milton Babbitt,
influenciado en sus años de estudiante por la "revolución en el
pensamiento musical" de Schoenberg, comenzó a aplicar técnicas seriales a
la música electrónica.
1960-1970
Estos fueron años fértiles para la música electrónica, no solo para
la música académica sino también para algunos artistas independientes a
medida que la tecnología del sintetizador
iba volviéndose más accesible. Hacia esta época, una poderosa comunidad
de compositores y músicos trabajando con nuevos sonidos e instrumentos
se había establecido y estaba creciendo. 1960 fue testigo de la
composición Gargoyle de Luening para violín y cinta, así como la premiere de Kontakte de Stockhausen para sonidos electrónicos, piano y percusión. En Kontakte,
Stockhausen abandonó la forma musical tradicional basada en un
desarrollo lineal y en un clímax dramático. En este nuevo acercamiento,
que él denominó como "forma momento", recuerda a las técnicas de
"cinematic splice" del cine de principios del siglo veinte.
El primer de estos sintetizadores en aparecer fue el Buchla. Apareciendo en 1963, fue producto del esfuerzo del compositor de música concreta Morton Subotnick.
El theremin
había sido utilizado desde los años 1920 pero mantenía una cierta
popularidad gracias a su utilización en numerosas bandas sonoras de
películas de ciencia ficción de los años 1950 (por ejemplo The Day the Earth Stood Still de Bernard Herrmann). Durante los años 1960 el theremin hizo aparaciones ocasionales en la música popular.
En Reino Unido en este período, el BBC Radiophonic Workshop
(creado en 1958) emergió como uno de los estudios más productivos y
renombrados del mundo, gracias a su labor en la serie de ciencia ficción
Doctor Who. Uno de los artistas electrónicos británicos más influyentes de este período fue Delia Derbyshire. Es famosa por su icónica ejecución en 1963 del tema central de Doctor Who, compuesto por Ron Grainer, según algunos la pieza más conocida de música electrónica del mundo. Derbyshire y sus colegas, entre los que se encuentran Dick Mills, Brian Hodgson (creador del efecto de sonido TARDIS), David Cain, John Baker, Paddy Kingsland y Peter Howell,
desarrollaron un amplio cuerpo de trabajo que incluye bandas sonoras,
atmósferas, sintonías de programas y efectos de sonido para BBC TV y sus
emisoras de radio.
En 1961 Josef Tal creó el Centre for Electronic Music in Israel en la Universidad Hebrea, y en 1962 Hugh Le Caine llegó a Jerusalén para instalar su Creative Tape Recorder en el centro.10
Milton Babbitt compuso su primer trabajo electrónico utilizando el sintetizador (llamada Composition for Synthesizer)
que fue creada mediante el RCA en el CPEMC. La colaboraciones ocurrían
superando las barreras de los océanos y de los continentes. En 1961,
Ussachevsky invitó a Varèse al Columbia-Princeton Studio (CPEMC). Fue
asistido por Mario Davidovsky y Bülent Arel. La intensa actividad del CPEMC y en otros sitios inspiró la creación en San Francisco del Tape Music Center en 1963 por Morton Subotnick, con otros miembros adicionales como Pauline Oliveros, Ramón Sender, Terry Riley y Anthony Martin. En el otro lado del Atlántico tuvo lugar el Primer Seminario de Música Electrónica, en 1964 en Checoslovaquia, organizado en el Radio Broadcast Station de Plzen.
Se siguieron desarrollando nuevos instrumentos. Uno de los más importantes avances tuvo lugar en 1964, cuando Robert Moog introdujo el sintetizador Moog, el primer sintetizador analógico controlado por un sistema integrado modular de control de voltaje. Moog Music introdujo posteriormente un sintetizador más pequeño con un teclado, llamado Minimoog,
que fue utilizado por multitud de compositores y universidades,
haciéndose muy popular. Un ejemplo clásico del uso del Moog de gran
tamaño es el álbum Switched-On Bach de Wendy Carlos.
En 1966 Pierre Schaeffer fundó el Groupe de Recherches Musicales
(Grupo de Investigación Musical) para el estudio y la investigación de
la música electrónica. Su programación está estructurada a partir de un
compromiso en los procesos de difusión, investigación y creación de la
música contemporánea y las tendencias en videoarte e imagen más
actuales. Sus exhibiciones y conciertos son reproducidas en tiempo real
mediante dispositivos electrónicos, interfícies de audio-video y una
plantilla de músicos y video artistas nacionales e internacionales
abiertos al uso de tecnologías punta.
Música por ordenador
CSIRAC, el primer computador en tocar música, lo hizo públicamente en agosto de 1951.11 Una de las primeras demostraciones a gran escala de lo que se conoció como computer music (en inglés, "música por ordenador") fue una emisión nacional pre grabada en la red NBC para el programa Monitor el 10 de febrero de 1962. En 1961, LaFarr Stuart programó el ordenador CYCLONE de la Iowa State University (un derivado del Illiac)
para tocar canciones sencillas y reconocibles a través de un altavoz
amplificado adherido a un sistema originalmente utilizado para temas
administrativos y de diagnóstico.
Los últimos 1950, los años 1960 y la década de 1970 vieron también el
desarrollo de grandes marcos operativos para síntesis informática.
Desde 1957, Max Mathews de Bell Labs desarrolló los programas MUSIC,
culminando en MUSIC V, un lenguaje de síntesis directa digital.
En París, IRCAM se convirtió en el principal centro de investigación de música creada por computador, desarrollando el sistema informácito Sogitec 4X,12 que incluía un revolucionario sistema de procesamiento de señal digital en tiempo real. Répons (1981), obra para 24 músicos y 6 solistas de Pierre Boulez, utilizó el sistema 4X para transformar y dirigir a los solistas hacia un sistema de altavoces.
Electrónica en vivo
En Estados Unidos, la electrónica en directo fue llevada a cabo por
primer vez en los años 1960 por miembros del Milton Cohen's Space
Theater en Ann Arbor, Míchigan, entre los que estaban Gordon Mumma y Robert Ashley, por individuos como David Tudor hacia 1965, y The Sonic Arts Union, fundada en 1966 por Gordon Mumma, Robert Ashley, Alvin Lucier y David Behrman.
Los festivales ONCE, que mostraban música multimedia para teatro,
fueron organizados por Robert Ashley y Gordon Mumma en Ann Arbor entre
1958 y 1969. En 1960, John Cage compuso Cartridge Music, una de las primeras obras de electrónica en vivo.
Los compositores y músicos de jazz Paul Bley y Annette Peacock
fueron de los primeros en tocar en concierto utilizando sintetizadores
Moog hacia finales de los 1960. Peacock hacía un uso regular de un
sintetizador Moog adaptado para procesar su voz tanto en el escenario
como en grabaciones de estudio.
Sintetizadores
Moog, a finales de 1963, conoció al compositor experimental Herbert
Deutsch, quien, en su búsqueda por sonidos electrónicos nuevos, inspiró a
Moog a crear su primer sintetizador, el Moog Modular Synthesizer
El Moog, aunque era conocido con anterioridad por la comunidad
educativa y musical, fue presentado en sociedad en el otoño de 1964,
cuando Bob hizo una demostración durante la Convención de la Sociedad de
Ingeniería de Audio (Audio Engineering Societen) celebrada en Los
Ángeles. En esta convención, Moog ya recibió sus primeros pedidos, y el
negocio despegó.
La compañía Moog Music creció de forma espectacular durante los
primeros años, haciéndose más conocida cuando Wendy Carlos edita el
álbum Switched on Bach. Bob diseño y comercializó nuevos modelos, como
el Minimoog la primera versión portátil del Moog Modular, el Moog Taurus
(teclado de pedales de una octava de extensión, con transposición para
bajos y agudos), el PolyMoog (primer modelo 100% polifónico), el
MemoryMoog (polifónico, equivalía a seis MiniMoog's en uno), el
MinitMoog, el Moog Sanctuary, etc.
Moog, no supo gestionar bien su empresa y esta paso de tener listas
de espera de nueve meses a no recibir ni un sólo pedido. Agobiado por
las deudas, perdió el control de la empresa, que fue adquirida por un
inversionista, aunque continuó diseñando instrumentos musicales para él
hasta 1977, cuando abandonó Moog Music y se mudó a un pequeño poblado en
las montañas Apalaches. Sin Bob, la Moog Music se fue a pique poco
después.
KORG,en 1967 Kato se acercó al Ingeniero Fumio Mieda, quien deseaba
iniciarse en la construcción de teclados musicales. Impulsado por el
entusiasmo de Mieda, Kato le pidió construir un prototipo de teclado y
18 meses después Mieda le presentó un órgano programable. La compañía
Keio vendió este órgano bajo la marca Korg, hecha de la combinación de
su nombre con la palabra órgano, en inglés (Organ).
Los órganos producidos por Keio fueron exitosos a finales de los años
60' y principios de los 70' pero, consciente de la competencia con los
grandes fabricantes de órganos ya establecidos, Kato decidió usar la
tecnología del órgano electrónico para construir teclados dirigidos al
mercado de los sintetizadores. De hecho, el primer sintetizador de Keio
(MiniKorg) fue presentado en 1973. Después del éxito de este
instrumento, Keio presentó diversos sintetizadores de bajo costo durante
los años 70' y 80' bajo la marca Korg.
1970-1980
En 1970, Charles Wuorinen compuso 'Time's Encomium', convirtiéndose en el primer ganador Premio Pulitzer
por una composición completamente electrónica. Los años 1970 también
vieron como se generalizaba el uso de sintetizadores en la música rock
con ejemplos como Pink Floyd, Tangerine Dream, Yes y Emerson, Lake & Palmer.
Nacimiento de la música electrónica popular
A lo largo de los años setenta, bandas como The Residents y Can
abanderaron un movimiento de música experimental que incorporaba
elementos de música electrónica. Can fue uno de los primeros grupos en
utilizar loops de cinta para la sección de ritmo y The Residents crearon
sus propias cajas de ritmos. También en los años 1970 diferentes bandas
de rock, desde Genesis hasta The Cars, comenzaron a incorporar sintetizadores en sus arreglos de rock.
En 1979, el músico Gary Numan contribuyó a llevar la música electrónica a un público más amplio con su hit pop "Cars" del álbum The Pleasure Principle.
Otros grupos y artistas que contribuyeron en esta época
significativamente a popularizar la música creada exclusiva o
fundamentalmente de modo electrónico fueron Kraftwerk, Depeche Mode, Jean Michel Jarre, Mike Oldfield o Vangelis
Nacimiento del MIDI
En 1980, un grupo de músicos y fabricantes se pusieron de acuerdo
para estandarizar una interfaz a través del que diferentes instrumentos
pudieran comunicarse entre ellos y el ordenador principal. El estándar
se denominó MIDI (Musical Instrument Digital Interface). En agosto de 1983, la especificación 1.0 de MIDI fue finalizada.
La llegada de la tecnología MIDI permitió que con el simple acto de
presionar una tecla, controlar una rueda, mover un pedal o dar una orden
en un micro ordenador se pudieran activar todos y cada uno de los
dispositivos del estudio remotamente y de forma sincronizada,
respondiendo cada dispositivo de acuerdo a las condiciones prefijadas
por el compositor. instruments.
Miller Puckette desarrolló un software para el procesamiento gráfico de señal de 4X llamado Max, que posteriormente sería incorporado a Macintosh (Dave Zicarelli lo extendió a Opcode)13
para control de MIDI en tiempo real, haciendo que la composición
algorítmica estuviera disponible para cualquier compositor que tuviera
un mínimo conocimiento de programación informática.
Síntesis digital
Véase también: Sample.
En 1979 la empresa australiana Fairlight lanzó el Fairlight CMI (Computer Musical Instrument), el primer sistema práctico de sampler polifónico digital. En 1983, Yamaha introdujo el primer sintetizador digital autónomo, el DX-7. Utilizaba síntetis de modulación de frecuencia (síntesis FM), probada por primera vez por John Chowning en Stanford a finales de los años 1960.
1980 - 1990
Crecimiento de la música dance
Hacia finales de los años 1980,
los discos de música de baile que utilizaban instrumentación
exclusivamente electrónica se hicieron cada vez más populares. Esta
tendencia ha continuado hasta el presente, siendo habitual escuchar
música electrónica en los clubs de todo el mundo.
Véanse también: Italo disco, Música electro, Techno, Música house, Acid house, Rave, Jungle, Drum and Bass y Música trance.
Avances
En los años 1990,
comenzó a ser posible llevar a cabo actuaciones con la asistencia de
ordenadores interactivos. Otros avances recientes son el la composición Begin Again Again de Tod Machover
(MIT y IRCAM) para hyper chelo, un sistema interactivo de sensores que
miden los movimientos físicos del chelista. Max Methews desarrolló el
programa "Conductor" para control en tiempo real del tempo, la dinámica y
el timbre de un tema electrónico.
Desde 2000
A medida que la tecnología informática se hace más accesible y el software musical
avanza, la producción musical se hace posible utilizando medios que no
guardan ninguna relación con las prácticas tradicionales. Lo mismo
ocurre con los conciertos, extendiéndose su práctica utiilzando ordenadores portátiles y live coding. Se populariza el término Live PA
para describir cualquier tipo de actuación en vivo de música
electrónica, ya sea utilizando ordenador, sintetizador u otros
dispositivos.
En esta década surgen diferentes entornos virtuales de estudio construidos sobre software, entre los que destacan productos como Reason de Propellerhead y Ableton Live,
que se hacen cada vez más populares. Estas herramientas proveen de
alternativas útiles y baratas para los estudios de producción basados en
hardware. Gracias a los avances en la tecnología de microprocesadores,
se hace posible crear música de elevada calidad utilizando poco más que
un solo ordenador. Estos avances han democratizado la creación musical
llevando a un incremento masivo en la producción musical casera
disponible para el público en internet.
El avance del software y de los entornos de producción virtuales ha
llevado a que toda una serie de dispositivos antiguamente solo
existentes como hardware estén ahora disponibles como piezas virtuales, herramientas o plug ins de los software. Algunos de los softwares más populares son Max/Msp y Reaktor, así como paquetes de código abierto tales como Pure Data, SuperCollider y ChucK.
No hay comentarios:
Publicar un comentario