1ª ETAPA DE NOVOS TALENTOS GOSPEL

No dia 07 de janeiro de 2012 foi realizada a primeira fase de novos talentos gospel na AD Madureira Cajuru (Sede) Curitiba Paraná.
Nessa primeira etapa foi capela, sendo assim ouvidos sem playBlack e sem intrumentos, os jurados foram da GK Music que ouviram os calouros e decidiram que saíssem.
Foi muito bom, agradecemos a todos que participaram nesse dia..
Fique atento para a próxima fase e participe.

Mais detalhes gkproducoes@hotmail.com

Dicas de Microfones...

MICROFONES

O assunto sobre microfones e um dos mais importantes no mundo do audio.
Devemos sempre lembrar que uma boa qualidade de som começa pela boa captaçao dos sinais a serem amplificados, sem uma boa captaçao é impossivel obter um bom resultado.
A seguir vocês conhecerão algumas dicas sobre microfones:
Aplicaçao
Modelos de microfones e sua utilidade
Microfonação de instrumentos

MICROFONES RECOMENDADO PARA SEREM USADOS NOS INSTRUMENTOS ABAIXO:
BUMBO:  RE- 20 / D112
CAIXA:  SM57 BETA
HIT-HAT: SM81
TOM HIGH: MD 421/SM 57/AKG509
TOM MID: MD 421/SM 57/AKG509
TOM LOW: MD 421/SM57/AKG509
FLOOR: MD421/SM58/SM98
OVER: SM81
CONGAS: AKG509/SM57 BETA
GUITARRA: SM58
SAX: MD421/SM58
TRUMPETE: MD421/SM58
TROMBONE: RE20/SM58
PANDEIRO: SM57
SURDO: SM98/SM58/D112
TONS: MD421/SM57
VOZES: SM87/SM58
Microfones - características
O microfone é, sem dúvida, uma das peças essenciais de um estúdio ou de um sistema de sonorização. Escolher um microfone não é uma tarefa fácil, pois além das características técnicas, há uma enorme variedade de fabricantes e modelos, com preços diferentes. Este texto tem por objetivo dar informações elementares.

No que se refere à transdução do sinal sonoro acústico para sinal elétrico, os microfones podem ser classificados, basicamente, em dois tipos: dinâmico e capacitivo.

O microfone dinâmico consiste de um diafragma fino acoplado a uma bobina móvel dentro de um campo magnético. Quando o som atinge o diafragma, este move-se para dentro e para fora, e este movimento da bobina dentro de um campo magnético produz uma variação de corrente na bobina (e conseqüentemente uma variação de tensão em seus terminais) análoga à variação da pressão atuando no diafragma.
Os microfones dinâmicos em geral possuem pouca sensibilidade, mas são fáceis de usar, pois não requerem alimentação elétrica, e por isso são preferidos para uso ao vivo.

São exemplos de microfones dinâmicos: Shure SM57 , Shure SM58 , AKG D880 , AKG D3700 , Samson Q2 , etc.

O microfone capacitivo, também conhecido como microfone "condenser", usa o princípio de um capacitor variável, consistindo de um diafragma montado bem próximo a uma placa fixa. Uma carga elétrica polarizada fixa é mantida entre a placa e o diafragma e, conforme este se move com a pressão sonora, a voltagem entre a placa e o diafragma varia analogamente. Atualmente, a carga polarizada usada na maioria dos microfones condenser é implementada com um "eletreto" pré-polarizado, uma camada carregada permanentemente na placa ou na parte posterior do próprio diafragma. A polarização por meios externos normalmente é usada somente nos microfones de estúdio de mais alta qualidade.
Os microfones capacitivos possuem alta sensibilidade e menor saturação do sinal. Sua utilização, entretanto, requer alimentação elétrica, através de bateria interna ou "phantom power".

São exemplos de microfones dinâmicos: Shure 16AM , AKG C1000S , AKG C3000B , Samson Q1 , etc. Quanto à forma de captação, os microfones podem ser omnidirecionais, ou direcionais.

Os microfones omnidirecionais podem captar o som vindo de todas as direções. A maioria dos microfones "de lapela", usados por locutores, são omnidirecionais.

Os microfones direcionais do tipo "cardióide" podem captar com mais intensidade o som vindo pela frente, e com menos intensidade o som vindo dos lados, rejeitando o som vindo por trás. Assim, seu diagrama de captação se assemelha a um coração, e por isso o nome "cardióide". Eles são muito usados em aplicações ao vivo, onde se deseja captar a voz do cantor mas não o som do monitor que está à sua frente, por exemplo.
Os microfones direcionais do tipo "hiper-cardióide" podem captar com muita intensidade o som vindo pela frente, e com muito menos intensidade o som vindo dos lados, mas podem captar um pouco o som vindo por trás. Eles são mais usados em aplicações ao vivo, onde os monitores estão nas laterais à frente do cantor, por exemplo.

Ajuda Divina

O rio subia e subia, inundando as casas até o teto; a Defesa Civil, a Cruz Vermelha e o Exército tentavam resgatar a quantos podiam.
    —Suba à lancha, senhor — dizem a uma pessoa que estava no alto de um teto, com a água na cintura.
    —Não, não faz falta, eu não necessito ajuda humana porque tenho muita fé e por isso meu Deus vai me salvar.
    —Deixe de bobagem  e suba à lancha rápido, que não temos muito tempo, porque há muitos mais a quem resgatar.
    —NÃO! Eu tenho muita fé e meu Deus vai me resgatar.
    Os que estão na lancha vêem que o homem está irredutível e como há tantas outras pessoas a quem ajudar, decidem ir embora.
    A água continua subindo, a corrente ameaça arrancar a nosso religioso homem daquele teto e levá-lo; ele se aferra ao teto com as unhas. Nisso se aproxima um helicóptero e do alto estendem-lhe uma escadinha.
    — SUBA! VENHA PARA CIMA! — dizem-lhe em voz alta.
    — EU NÃO NECESSITO AJUDA HUMANA PORQUE TENHO MUITA FÉ QUE MEU DEUS VAI ME SALVAR!
    O helicóptero vai resgatar outros. A corrente acaba levando o homem rio abaixo, porém do alto de uma ponte lhe jogam uma corda.
    — EU NÃO NECESSITO AJUDA HUMANA PORQUE... — etc., etc.
    O homem se afoga. Ao chegar ao céu, indignado, vai pedir contas a Deus:
    — Muito bonito, eu dizendo como um idiota que o senhor iria me ajudar, e nada! É esse seu amor por seus filhos? É assim que desampara a quem tem fé em Ti?

Deus se irrita e responde:
"ESCUTA-ME BEM, MAL-AGRADECIDO!
PORQUE TENS FÉ EM MIM TE MANDEI
UM BOTE, UM HELICÓPTERO E UMA CORDA,
E TUDO RECHAÇASTE.
QUE QUERIAS, QUE EU FOSSE EM PESSOA BUSCAR-TE?".

10 dicas para um bom ensaio vocal



O ensaio deve fazer parte da rotina de todo ministério de música. Algumas pessoas tem uma visão fantasiosa a respeito dos músicos de sucesso supervalorizando a questão da INSPIRAÇÃO. Mas qualquer músico que se esforça para oferecer o melhor em seu ministério sabe que inspiração é importante, mas TRANSPIRAÇÃO é fundamental.

O ensaio é a hora da transpiração, de dedicar tempo e atenção para que a música na casa de Deus seja feita com qualidade. Já ouvi muitos comentários do tipo: "Nós ensaiamos tanto mas nada dá certo!" Talvez o ensaio não esteja sendo feito de forma eficaz e foi pensando nisto que resolvi indicar alguns caminhos para que você chegue no ponto que deseja. Vamos juntos!

1. REGULARIDADE Procure fazer ensaios constantes, no mínimo uma vez por semana, isto é importante para integração musical e comunhão do grupo.

2. TEMPO Uma duração ideal para um bom ensaio deve ser em torno de duas horas. É difícil conseguir resultados reais em menos tempo, se você quiser fazer um ensaio mais longo dê um pequeno intervalo para água e descanso, precisamos lembrar que a voz é um instrumento delicado.

3. PRESENÇA A presença no ensaio deve se tornar obrigatória, não é justo que o grupo todo ensaie e no momento da ministração seja prejudicado por um "penetra" não é ?

4. ESTRUTURA É importante ter um local específico para ensaio, um lugar quieto onde o grupo possa ter um pouco de privacidade. O ensaio vocal deve ser sempre acompanhado por um instrumento harmônico ( teclado, piano, violão, guitarra) que garanta a afinação do grupo.

5. ORAÇÃO É verdade que ensaio é ensaio, não é hora de estudo bíblico e nem de orações sem fim, mas é importante orar no início do ensaio. Quando estamos trabalhando na obra muitas lutas se levantam precisamos lembrar que não é contra carne nem sangue que devemos guerrear. Efésios 6:10-18.

6. AQUECIMENTO Pense na voz como parte de seu organismo. Quando você abre os olhos de manhã, logo pula da cama e sai correndo pelo quarteirão para se exercitar ??? Claro que não! Da mesma forma a voz precisa se espreguiçar, precisa acordar, precisa aquecer. Exercícios de relaxamento, de respiração e alguns vocalizes tem esta função na técnica vocal. O grupo, ou alguém do grupo, precisa investir em uma boa aula de técnica vocal.

7. MATERIAL VISUAL Todo material escrito ajuda na memorização. Se souber escreva os arranjos, se não souber, registre ao menos a letra e acordes do cântico e distribua cópias. Peça que as pessoas anotem o que está sendo combinado: onde abrir voz, variações de dinâmica, repetições, etc.

8. MATERIAL AUDITIVO Se você vai ensaiar músicas já registradas em Cd, leve a gravação para que todos ouçam o arranjo original. O desenvolvimento da percepção musical é imprescindível para o bom cantor.

9. ORGANIZAÇÃO O ensaio precisa ter direcionamento, é bom que o repertório e o roteiro do ensaio estejam pré-definidos. A equipe deve ser agrupada com alguma lógica: homens e mulheres, por naipes (sopranos, contralto, tenor, baixo), ou da maneira que você achar melhor, mas faça desta divisão algo automático na cabeça do grupo.

10. PERSEVERANÇA Tenha paciência e não desista. Medite em II Pedro 1: 5-8. O ensaio é uma semeadura, nem sempre colhemos os frutos instantaneamente, mas o nosso trabalho não é vão no Senhor!!!

Áudio na Igreja

Áudio na Igreja

Introdução
Gostaria de conversar um pouco sobre um problema que muitas igrejas enfrentam na maioria de seus cultos o som. As reclamações são sempre as mesmas: “está muito alto, está muito baixo, não se entende nada do que se canta, que ruído é esse, o microfone está falhando, não funciona, etc.”.
O maior problema que verifico quando visito igrejas para avaliação de seu equipamento de som, é a falta de preparo das pessoas envolvidas na operação do som, dessas igrejas. Quero dizer que se não houver um mínimo de investimento nas pessoas que diretamente irão lidar com o equipamento, de nada adianta investimento em equipamento moderno e de qualidade. Costumo fazer a seguinte comparação; pode ser qualquer tipo de aeronave, um jato moderníssimo ou um teco-teco, se o piloto não estiver preparado o avião vai acabar caindo.
Existem hoje no mercado inúmeros cursos que preparam profissionais na área de operação de áudio, habilitando-os para executarem os trabalhos mínimos relacionados ao som da igreja; por isso sempre aconselho à liderança da igreja que, se possível, patrocine ao candidato a operador da igreja, um destes cursos.
Nosso propósito nesta coluna é ajudar aqueles que não tiveram acesso a nenhum destes cursos, ou que já têm conhecimento ou experiência na área, mas mesmo assim ainda encontram muita dúvida no dia a dia de seu ministério de operadores de som da igreja - sim, ministério: considero que esta pessoa, assim como os músicos, ministros de louvor, pregador, evangelista, deva ter este chamado para atuar nesta área.
Microfonia
Um dos maiores “males” que afligem o operador de som em qualquer ambiente, é a famosa microfonia, ou realimentação acústica.
A realimentação é um fenômeno eletro-acústico que ocorre devido a um desequilíbrio das freqüências que estão sendo projetadas num determinado ambiente.
A microfonia é identificada como um apito forte, que ocorre quando as ondas sonoras emitidas por um alto-falante são captadas e reamplificadas pelo microfone que as originou. Muitas vezes começa fraco e vai aumentado gradualmente até que uma das fontes sonoras seja interrompida. Sendo assim, temos: microfonia de graves que mais se parece com um apito de navio, a microfonia de médios, parecida com o som produzido por uma corneta, e a de agudos, a pior delas, pois atinge freqüências altas que podem até prejudicar a audição, se não for controlada a tempo.
Mas o que provoca a microfonia ? Como já disse, é um desequilíbrio, que ocorre quando há excesso de volume em uma determinada freqüência. Por exemplo; quando ligamos um microfone próximo de um alto falante, o som captado pelo microfone, percorre um caminho, ou seja, entra pelo microfone, vai para a mesa de som, que o pré-amplifica e envia para os amplificadores que os enviam para as caixas de som. Quando esse sinal sai pelo alto falante, uma boa parte dele é nova mente captada pelo microfone, criando assim um ciclo vicioso. Até ai tudo bem, pois esse ciclo é natural num sistema de reforço sonoro. Porém quando uma determinada freqüência - seja de graves, médios ou agudos - é excessiva, esse ciclo se tornará audível e crescente até que passe a ser ouvido e interferir na qualidade do sistema sonoro.
Uma maneira de amenizar este problema é evitando que os microfones fiquem posicionados de frente para o raio de emissão dos alto-falantes. Porém sabemos que a acústica do ambiente proporciona um ganho em determinadas freqüências, o que aumenta a possibilidade de causar microfonia.
Pretendemos mais adiante tratar da questão da acústica do ambiente, mas quero falar sobre o uso dos equalizadores que, são uma grande ferramenta no sentido de amenizar o problema da microfonia.
Equalizando
Como falamos no item anterior, hoje iremos falar sobre equalização. Porém antes, precisamos compreender que a aplicação do equalizador em um ambiente a ser sonorizado tem a ver principalmente com a resposta de freqüências que a acústica do ambiente tem.
Explicando, cada ambiente tem um som próprio, alguns ressaltam freqüências graves, outros médias e outras agudas. Aí entra esta ferramenta, que nos auxilia a corrigir os excessos que tanto prejudicam a boa audição nos ambientes onde vamos sonorizar.
Infelizmente, devido principalmente às comuns reduções de orçamento na hora de se projetar uma igreja, é normal que a construção final tenha gravíssimos problemas de acústica. Existem paliativos, como carpetes, cortinas grossas, até a colocação de material absorvente nas paredes com o intuito de se diminuir reverberações, ecos, e ressonâncias, e realmente em muitos casos, a colocação desses materiais consegue amenizar bastante esses problemas. Porém sempre será necessário fazer correções de freqüência, com o nosso equalizador.
São vários os tipos de equalizador, sendo shelving os mais comuns, paramétricos, encontrados em muitas mesas de som e gráficos. Através da análise acústica do ambiente, aplica-se o equalizador aumentando ou atenuando uma determinada freqüência.
Imaginemos um ambiente, onde através da análise acústica se observa que a região compreendida entre 200 Hz a 280 Hz, é muito audível, e que chega até a provocar ressonâncias e microfonias. O papel do equalizador neste caso é exatamente este, diminuir a freqüência que estão sobrando. Um princípio básico, se esta faltando uma freqüência acrescente, se esta sobrando, atenue-a com o equalizador.
Na realidade o que estamos fazendo é exatamente equilibrar os excessos ou a falta de freqüências . O ouvido humano com o tempo, tende a perder a sensibilidade nos extremos, ou seja, nos graves e agudos (é o famoso efeito loudness), levando muitos operadores a reforçar essas regiões; porém é exatamente na região dos médios que está localizada a voz humana e toda a parte de inteligibilidade.
Inteligibilidade
Conforme destaca o dicionário, essa palavra vem do adjetivo inteligível, que significa “compreender bem”. O ser humano é capaz de ouvir as freqüências compreendidas dentro do espectro de freqüências de 20Hz até 20Khz. Como entender isso?
Imagine um teclado de piano: o lado que fica totalmente à esquerda representaria os 20Hz ou os sons graves. No lado totalmente à direita ficam os 20 KHz, ou, os sons agudos, na parte central estão os sons médios.
Sendo assim, podemos dividir este espectro de freqüências em Graves, Médios e Agudos, que por sua vez vão subdividir-se em Médios Graves, Médios Médios e Médios Agudos. Observe que nesta subdivisão os Médios foram subdivididos em Médios Graves, Médios Médios e Médios Agudos. É exatamente nesta região que encontramos as freqüências que são melhor compreendidas pelo ouvido humano. A ciência descobriu que os cães e morcegos, por exemplo, ouvem freqüências muito acima de 20 KHz, enquanto que os elefantes e baleias podem produzir sons muito abaixo dos 20 Hz.
É muito comum verificarmos, em muitas equalizações, nas sonorizações de nossas igrejas, as regiões Médias normalmente muito atenuadas, e aí esta um grande problema, pois como já dissemos, nesta região está a maior parte das freqüências que nosso ouvido compreende melhor. Nesta região está a voz humana, e a maioria dos instrumentos que fazem a parte harmônica da música, como violão, guitarra, piano, sax, etc.
Cabe então ao operador, treinar o seu ouvido para perceber quais são as freqüências que devem ser destacadas, seja da voz ou dos instrumentos. Não esquecendo que a resposta (acústica) do ambiente pesa muito, sendo necessário então um equilíbrio de todos estes fatores.

Tecnologia

Computador em guitarra faz instrumento reproduzir 'qualquer som'

Gibson Firebird X tem processador de som e custa US$ 5,5 mil. Instrumento tem afinação automática e botões para efeitos.

Foto: Reprodução

Guitarra
A fabricante de guitarras Gibson lançou no mercado um instrumento que, com uma espécie de computador interno, promete reproduzir quase qualquer tipo de som, de instrumentos MIDI em mais de 2 mil combinações diferentes. Com a Firebird X é possível comprar e baixar aplicativos para a guitarra, criando mais sons, o que elimina a necessidade dos pedais de efeitos. (Foto: Divulgação)
Guitarra Gibson Firebird X (Foto: Divulgação)Botões na Firebird X permitem que o guitarrista selecione a afinação do instrumento, que é feito automaticamente, além de selecionar os efeitos diversos. A guitarra custa US$ 5,5 mil. (Foto: Divulgação)

História da Música

Década de 1850 a 1940: os primeiros artistas e equipamentos
A habilidade de gravar sons é absolutamente necessária para a produção de música eletrônica, e é certamente bastante útil. O primeiro precursor do fonógrafo foi inventado em 1857 quando Leon Scott gravou pela primeira vez impressões de som em cilindros revestidos em carbono. Duas décadas depois, em 1878 Thomas A. Edison patenteou o fonógrafo, que utilizava cilindros similarmente ao dispositivo de Scott. Apesar do mecanismo ter se mantido inalterado por um tempo, Emile Berliner desenvolveu o fonógrafo em disco em 1897.[2]
Data de 1897 o mais antigo instrumento musical electroacústico. Foi uma invenção de Thaddeus Cahill, conhecida como dinamofone ou telarmónio. A máquina consistia num dínamo eléctrico, associados a indutores electromagnéticos capaz de produzir diferentes frequências sonoras. Estes sinais eram comandados por um teclado e um painel de controlos e difundidos pela linha telefónica, cujos terminais estavam equipados com amplificadores acústicos, colocados em locais públicos. Veio a verificar-se que a emissão musical interferia com as chamadas telefónicas, o que era insustentável. O instrumento tinha a capacidade de sintetizar sons com os timbres desejados, por sobreposição de parciais harmónicos. O sistema que permitia este desempenho tornava a máquina extremamente complexa e de dimensões gigantescas. O compositor Ferrucio Busoni mostrou interesse pela invenção, potencialmente geradora de novos conceitos harmónicos, não tendo no entanto apoiado directamente o projecto. A tecnologia foi posteriormente usada para o desenvolvimento do órgão Hammond. Entre 1901 e 1910, Cahill desenvolveu três versões maiores e mais complexas que o original, a primeira pesando sete toneladas, e a última, acima de duzentas. Com a queda do interesse público, em 1912 a empresa de Cahill estava falida.[3]

Um modelo das Ondas Martenot

[editar] O teremim e o movimento futurista

Com o final da Primeira Guerra Mundial os primeiros avanços foram no sentido de tornar os equipamentos mais económicos e compactos. Uma dessas invenções foi o teremim, desprovido de teclado, munido de dois detectores de movimento que controlavam o volume e a altura do som a partir do movimento livre das mãos do executante. Um outro exemplo de instrumento é o Ondas Martenot, inventado em 1928 por Maurice Martenot[4] e usado em obras como "Turangalîla" e "Trois Petites Liturgies" de Olivier Messiaen. Mais tarde surgiram instrumentos polifónicos como o Givelet e o órgão Hammond, cujos potenciais foram imediatamente reconhecidos e explorados. O Givelet tinha a capacidade de ser programado, o que foi mais tarde largamente ultrapassado pelos sintetizadores e pelos computadores que viriam a surgir cerca de 25 anos mais tarde. Produzido por Laurens Hammond a partir da fundação de sua empresa em 1929, o órgão Hammond era baseado nos princípios do telarmónio junto com outras tecnologias como as primeiras unidades de reverberação.[5]
O movimento futurista, iniciado na Itália pelo poeta Filippo Marinetti, rapidamente se expandiu pela Europa, na defesa da liberdade da expressão artística, que se revelou na música pela utilização de técnicas de produção sonora não convencionais até então, dando-se valor ao que é considerado "barulho". Luigi Russolo propôs, na década de 1910, em The Art of Noises,[6] a composição musical a partir de fontes sonoras do meio ambiente, na busca da variedade infinita dos ruídos. O efeito prático desta proposta foi a construção de instrumentos produtores de ruído como o Intonarumori. O primeiro concerto da série The Art of Noises ocorreu em 21 de abril de 1914, e em junho concertos similares ocorreram em Paris.
O compositor francês Edgard Varèse, foi pioneiro na exploração de novos conceitos de expressão musical. A sua técnica de instrumentação revelava um ruptura com a escola vigente no Conservatório de Paris, quebra essa absolutamente necessária para a aceitação de fontes electrónicas na composição musical. O conceito de análise e de "regenese" dos sons foi explorado por Varèse na sua obra instrumental, obrigando-o a utilizar os instrumentos como componentes de massas sonoras de diferentes timbres, densidades e volumes. As aspirações de Varèse no campo da música electrónica foram bloqueadas por razões financeiras e pelo deficiente apoio que recebeu. As obras teóricas de Thérémin, inventor do instrumento com o mesmo nome, debruçavam-se sobre os princípios analíticos na música, de forma sistemática e científica, antecipando a metodologia da composição de música electrónica.
Na França, um dos instrumentos eletrônicos mais famosos são as ondas Martenot, inventadas em 1928 por Maurice Martenot, e desenvolvidas para reproduzir os sons microtonais encontrados na música hindu. Após demonstração por Maurice em Paris, compositores começaram a utilizar o instrumento. Já o trautônio também foi inventado em 1928, e em 1940 Richard Strauss o utilizou.
Essa nova classe de instrumentos microtonais por natureza foi adotada lentamente pelos compositores, mas, a partir do início da década de 1930, houve um aumento substancial de novos trabalhos incorporando esses e outros instrumentos eletrônicos.

Uma fita cassete usada em magnetofones

[editar] Novos equipamentos magnéticos

Darius Milhaud e Percy Grainger utilizaram a capacidade de gravação e reprodução em vinil para deformar sons gravados através da variação da velocidade de leitura. Hindemith interessou-se especialmente pela capacidade de reproduzir os sons dos instrumentos acústicos electronicamente, ideia que Varèse conseguiu contornar. Na década de 1930, os principais avanços foram nos sistemas de gravação. Depois de tentado um sistema de gravação óptica, revelou-se mais vantajosa a gravação em suporte magnético. O maior avanço ocorreu na Alemanha em 1935, com a invenção do magnetofone, que utilizava fitas plásticas impregnadas de partículas de ferro. A fita magnética não permitia no entanto a visualização por meio de gráficos do som, desvantagem que teve pouca importância. Até 1945, as principais linhas de desenvolvimento foram na concepção do som musical, no interesse pelos princípios da acústica, que permitiram o avanço no campo da música electrónica.

[editar] Década de 1940 e 1950: música concreta e Elektronische Musik

A Segunda Guerra Mundial forçou o desenvolvimento tecnológico a vários níveis que, cessado o fogo, se revelou determinante no progresso da música electrónica. O clima de reconstrução económica proporcionou incentivos de várias instituições, sobretudo das emissoras de rádio, que dispunham de estúdios bem equipados. Em 1946, o ENIAC foi inventado, o primeiro computador no sentido moderno da palavra. Em Paris e Colónia estabeleceram-se duas diferentes correntes na música electroacústica[7] que duraram toda a segunda metade do século XX: respectivamente a corrente da música concreta e a Elektronische Musik.
A partir do fim da década de 1950 o termo música eletroacústica começa a ser adotado. Ele designa a música de instrumentos acústicos gravados, cujas gravações podem ser manipuladas, combinadas, montadas e superpostas.[7]

Desenvolvimentos dos franceses

O grupo francês foi resultado da iniciativa de Pierre Schaeffer, engenheiro electrotécnico, criador do conceito de música concreta, assim chamada por partir da gravação e transformação em estúdio de objetos sonoros (sons do ambiente, dos ruídos aos instrumentos musicais) recusando a utilização de instrumentos electrónicos. Eles foram responsáveis pelas primeiras mixagens.[8] Na mesma época, Paul Boisselet realizava experimentos com osciladores eletrônicos. As primeiras composições de Schaeffer, que incluíam a manipulação sonora por meio da variação da velocidade ou do sentido de leitura das gravações, tinham um efeito musical fraco, incoerente pela sua natureza fragmentária. Em 1948 foi apresentada peça Etude aux chemins de fer,[9] e no ano seguinte, Variations sur une flûte mexicaine, outra obra da música concreta. Mais tarde, com a melhoria da tecnologia e em associação com o compositor Pierre Henry e o engenheiro Jacques Poullin, fundando em 1958 o Groupe de Recherches Musicales, surgiram as primeiras composições de resultado satisfatório: Symphonie pour un homme seul,[10] primeira sinfonia de música concreta,[9] e a ópera Orpheé 51, esta última utilizando aparelhos como o Morphophone e os Phonogènes, que operavam sobre gravações em fita magnética.

Pierre Boulez em 2004

Curso de Verão de Darmstadt

Como resultado do desacordo gerado entre franceses e alemães, no curso de Verão de Darmstadt (1951), Schaeffer publicou o ensaio Esquisse d’un solfège concret que veio reafirmar e sistematizar as suas ideias no panorama de então. Os seus estudos levaram-no à publicação, em 1966, de Traité des objets musicaux, com base dos estudos preliminares de Esquisse d’un solfège concret. Nesse trabalho, Schaeffer estabeleceu 33 critérios de classificação divididos pelas três dimensões fundamentais do fenómeno sonoro – o plano harmónico, o plano dinâmico e o plano melódico – que permitiam 54 mil combinações distintas.
Apesar dos estudos aprofundados que efectuou, Schaeffer não conseguiu mais do que meras ligações passageiras com compositores como Boulez, Messiaen, Milhaud, Varèse e Stockhausen, estes talvez desencorajados pelos resultados sonoros pouco refinados. À medida que técnicas de processamento electrónico se tornavam mais aceitas, os princípios da música concreta perdiam prosperidade. A conjuntura forçou Schaeffer à mudança para um perspectiva mais universal - experiences musicales – o que levou à aproximação ao conceito da Elektronische Musik. No início dos anos 1960, Henry fundava o seu próprio estúdio, Xenakis começava já a utilizar os computadores, dois exemplos entre as muitas outras linhas de inovação, chegando assim ao fim o monopólio de Schaeffer.
No curso de Darmstadt os cientistas Robert Beyer e Meyer-Eppler apresentaram trabalhos sobre a síntese sonora electrónica que despertaram o interesse de alguns dos compositores presentes, entre eles Herbert Eimert. Os três homens formaram uma associação informal que, com o apoio do director técnico da Rádio de Colónia, foi pioneira na criação de estúdio de música electrónica na Alemanha. As primeiras experiências musicais, apresentadas em Paris, datam de 1952 e revelam a utilização de técnicas de serialismo integral, na sequência do desenvolvimento pós Segunda Escola de Viena. Os processos de composição seriais foram motor do desenvolvimento da síntese electrónica, com o intuito de poder manipular, individualmente, cada uma das propriedades dos sons, distanciando-os assim da sua origem primitiva. A grande questão punha-se: "será que os sons electrónicos, enquanto fonte universal de material sonoro, podem gerar um sistema estruturador coerente correspondente ao tonalismo?" A resposta estaria num estudo mais aprofundado da síntese sonora, com base nos conhecimentos matemáticos da acústica musical. Foi consensual que o gerador de sinais era o instrumento mais adequado como fonte do material electrónico. Produz sons sinusoidais (simples) que, sobrepostos, formam todos os outros sons. Outros aparelhos foram utilizados, para além do gerador de sinais: geradores de ruídos, o monocórdio, e o melocórdio - um instrumento com a capacidade de produzir Klangemodelle (sons formados pela sobreposição de determinadas frequências).

Karlheinz Stockhausen em 2005

 Desenvolvimentos de Stockhausen

O estúdio foi amplamente divulgado na comunidade musical. Stockhausen foi um dos compositores que estabeleceu uma longa ligação com o estúdio. Lá, realizou muitas das suas obras, entre elas os Studier I e II. Utilizou nesses estudos ferramentas como o cálculo de frequências com base em relações harmónicas, o serialismo de intensidades e durações, o eco e a reverberação, a inversão sonora ou a note mixtur. A técnica da note mixtur baseia-se na sobreposição de sons sinosoidais que não apresentam relações harmónicas com um som fundamental. Na produção do efeito de reverberação, utilizavam-se inicialmente câmaras de reverberação onde o som era emitido e regravado. Caíram em desuso pelo espaço que ocupavam e foram substituídas por métodos mais simples. Para a modulação dos sons eram empregues filtros afinados para certos centros de frequências, que permitiam favorecer ou empobrecer o som num certo campo de harmónicos. Kontakte (1950-1960) é uma das obras mais importantes de Stockhausen, que combina sons electrónicos com a execução, em tempo real, de partes para piano e percussão.
Em 1956, o músico compôs Gesang der Jünglinge, o primeiro trabalho de grande porte do estúdio de Colónia, baseado em um texto do Livro de Daniel. A obra é citada como inaugural da música eletroacústica.[7] Paralelamente, um desenvolvimento tecnológico importante foi a invenção do sintetizador Clavivox por Raymond Scott e auxílio de Robert Moog.

Erase-record-replay

A tecnologia erase-record-replay desenvolvida inicialmente para a produção de eco, foi aí explorada de outras formas, na criação de loops, por exemplo. Outra das características importantes na obra é a utilização da espacialização, através da colocação altifalantes de forma conveniente no espaço de execução. Outros compositores, tais como Brün, Hambräus, Heiss, Kagel, Koenig, Ligeti e Pousseur contribuíram para a extensa produção do estúdio de Colónia. Estes criadores de electronische musik, constituíram a face oposta à corrente francesa da música concreta, complementando-se no desenvolvimento da electroacústica até meados da década de 1960.

Música computacional

Surge o conceito da música computacional, gerada ou composta como o auxílio de um computador. É também um ramo de estudo que examina tanto a teoria quanto a aplicação de tecnologias na área de música. Muito do trabalho nessa área está na relação entre a teoria musical e a matemática. A primeira composição de computador foi gerada na Austrália por Geoff Hill no computador CSIRAC[11]. Posteriormente, Lejaren Hiller usou um computador na década de 1950 para produzir trabalhos que eram então executados por músicos convencionais. Ele é o compositor da Suite Illiac (1956), a primeira inteiramente automática e programada.[12] O trabalho de Max Mathews nos Laboratórios Bell resultaram no influente programa de computador MUSIC I. Pierre Barbaud, que já havia proposto em 1950 a introdução da matemática na composição musical, fundou o grupo de música algorítmica em 1958 junto com Roger Blanchard.[13]

Expansão mundial

A partir da década de 1950, diversos grupos de pesquisa desse novo ramo de música fomentado por franceses e alemães estavam sendo abertos pelo mundo.[1][14] O laboratório de música experimental da Universidade de Colúmbia, Estados Unidos (1953), o estúdio experimental de Herman Scherchen na Suíça (1954), um estúdio de música experimental no Japão (1954), o Studio di Fonologia da italiana RAI (1955), um estúdio de música experimental na Polônia (1957). A intensificação das pesquisas resultou em novos instrumentos, como um sintetizador controlado por uma fita de papel perfurado, começando a era dos sintetizadores.

Década de 1960 e 1970: sintetizadores pessoais e a música popular


Minimoog Voyager, um sintetizador analógico
Devido à complexidade em compor com um sintetizador ou computador, a maioria dos compositores continuava a explorar a música eletrônica usando o música concreta ainda na década de 1960. Mas como tal estilo não era gracioso, alguns compositores iniciaram pesquisas para melhorar a tecnologia nesse sentido, levando a três times independentes buscando o desenvolvimento do primeiro sintetizador pessoal.
O primeiro desses sintetizadores foi o Buchla, aparecido em 1963, produto do trabalho do compositor Morton Subotnick. Outro sintetizador foi o criado por Robert Moog,[15] sendo o primeiro a usar um teclado ao estilo de piano. Em 1964 Moog convidou o compositor Herb Deutsch para visitar seu estúdio em Trumansburg. Moog já havia encontrado-se com Deutsch um ano antes, ouvido sua música, e decidido seguir a sugestão do compositor para a construção de módulos para música eletrônica. Na época de visita de Deutsch, Moog já havia criado protótipos de osciladores controlados, equipamento que Deutsch usou por um tempo, e posteriormente Moog criou um filtro controlado por voltagem. Moog então foi convidade para a Convenção AES em Nova Iorque no qual apresentou o artigo "Electronic Music Modules" e vendeu seu primeiro sintetizador ao coreógrafo Alwin Nikolais.
Em 1964, Stockhausen compôs Mikrophonie I para tam-tam, microfones de mão, filtros e potenciômetros. No ano seguinte foi composta Mikrophonie II para coro órgão Hammond e moduladores.

Adoção pela música popular

Apesar da música eletrônica ter começado nas ramificações da composição clássica, após alguns anos ela foi adotada pela cultura popular. Um dos primeiro exemplos é o tema para televisão do seriado Doctor Who composto por Delia Derbyshire, em 1963.
No final da década de 1960 Wendy Carlos popularizou a música de sintetizador com os dois notáveis álbuns, Switched-On Bach e The Well-Tempered Synthesizer, que reproduziram peças de J. S. Bach usando o Moog.[16] O equipamento gerava somente um nota por vez, então para gerar a composição Carlos teve que sobrepor as gravações em um amplo trabalho de estúdio. As primeiras máquinas também eram bastante instáveis, e perdiam a afinação com facilidade. Apesar disso, muitos músicos como Keith Emerson do Emerson Lake and Palmer começaram a usar os equipamentos, inclusive em turnê. O teremim, que é extremamente difícil de ser executado, foi também usado na música popular. O teremim elétrico foi usado em "Good Vibrations" do The Beach Boys. Já os Beatles usaram o mellotron em "Strawberry Fields Forever" e o pedal de volume em "Yes It Is".

O Kraftwerk em concerto
Assim que a tecnologia evoluiu e os sintetizadores tornaram-se mais baratos, foram sendo adotados por várias bandas de rock,[17] tais como The Silver Apples e Pink Floyd, usando os equipamentos como substitutos ao órgão.

Krautrock e jazz fusion

Na década de 1970 o estilo eletrônico foi revolucionado pela banda alemã Kraftwerk, que usou a eletrônica e robótica para simbolizar a alienação então atual do mundo em relação a tecnologia. Outras bandas contemporâneas e contemporâneas que também incorporaram o som eletrônico à música popular e principalmente ao rock incluem Tangerine Dream, Can, Neu! e Popol Vuh. Tal movimento acabou sendo pejorativamente chamado pela imprensa inglesa da época como krautrock (uma referência ao apelido sauerkraut dos alemães, que significa chucrute, um prato tradicional daquele país), mas acabou sendo aceito pelo tempo devido à grande influência de tais bandas.
Alguns pianistas de jazz como Herbie Hancock, Chick Corea, Joe Zawinul (Weather Report) e Jan Hammer (Mahavishnu Orchestra) começaram a usar os sintetizadores em gravações de jazz fusion entre 1972 e 1974. As gravações I Sing the Body Electric de Weather Report e Crossings de Herbie Hancock usaram sintetizadores para efeitos de som em contraste de somente um substituto ao piano.
A composição para Forbidden Planet, por Louis and Bebe Barron, foi completamente composta usando o teremim[18] em 1956. Assim que os sons eletrônicos tornaram-se mais populares nas composições, outros filmes de ficção científica como Blade Runner e Alien passaram a depender no efeito de ambiente formado por tais instrumentos.

 Década de 1980 a 2000: a música eletrônica para o grande público


Conectores MIDI em um aparelho eletrônico
No final da década de 1970 e início da década de 1980 houve grande interesse na inovação em instrumentos de música eletrônica, amplamente pela substituição dos sintetizadores analógicos por versões digitais, além dos primeiros samplers. Na época os samplers eram, tal qual os primeiros sintetizadores, espaçosos e caros, mas em meados da década de 1980 foram desenvolvidos para tornarem-se mais disponíveis aos músicos.
Similarmente aos samplers, a música eletrônica foi amplamente difundida a partir da década de 1980 através da popularização dos computadores pessoais. A partir de então era possível emular as funcionalidades de instrumentos musicais ou de sintetizadores através da criação, manipulação e apresentação virtual de som. Percebeu-se que diferentes equipamentos não conseguiam comunicar-se entre si devido à diferenças em suas tecnologias. Para solucionar o problema foi criado o MIDI, um protocolo de comunicação destinado a comunicação, controle e sincronização de informações de aúdio entre dispositivos como teclados, sintetizadores e processadores de som.[19] Concebido em 1980, proposto para padronização em 1981 e introduzido de fato em agosto de 1983 (versão 1.0), o MIDI tornou-se um dos padrões mais notáveis da indústria da informática e atualmente é aceito na maioria dos equipamentos de aúdio e instrumentos musicais eletrônicos. O advento dessa tecnologia permitiu que um simples comando ativasse qualquer dispositivo do estúdio remotamente e em sincronia, respondendo de acordo com as condições predeterminadas pelo compositor.

Um Roland TR-808

 Electro e música industrial

Os novos tipos de sons eletrônicos contribuíram para a formação da música industrial, começada por grupos como Throbbing Gristle em 1975, Wavestar e Cabaret Voltaire. Artistas como Nine Inch Nails em 1989, KMFDM e Severed Heads usaram as inovações da música concreta e aplicaram à música dance e rock. Durante esse tempo, artistas de dub como Tackhead gravaram composições com modelos da música industrial que pavimentaram o interesse a bandas como Meat Beat Manifesto e produtores de downtempo e trip hop como Kruder & Dorfmeister. Destaque especial para o surgimento do synth pop (a música pop tocada com o predomínio de sintetizadores) nessa época, que revelou Mega bandas de reconhecimento mundial e influência enorme dentro da música eletrônica como Alphaville, Depeche Mode, New Order, Information Society, A-Ha e logo depois, Pet Shop Boys e Erasure.
Ainda durante o começo da década de 1980 desenvolveu-se em Detroit o electro, uma forma de hip hop misturada com o timbre dos sintetizadores analógicos (usando várias referências de Kraftwerk), baseado amplamente nas caixas de ritmos como o Roland TR-808. Ainda que seja mais associado com o hip hop e usado no breakdance da época, o electro é considerado uma forma de música eletrônica. O estilo foi resgatado nos anos 2000 com o electroclash mas decaiu pela grande influência de novos estilos de música eletrônica tais como o house.

Cultura da discoteca, uma das precursoras da música eletrônica dançante

Música eletrônica dançante

O estilo passou então de uma mera ferramenta para os músicos diversificarem e desenvolverem novos sons e timbres musicais apoiando-se em outros estilos musicais para ganhar uma cena própria. Com o sucesso da música disco, que atingiu seu auge entre 1977 e 1979 em parte devido ao filme de 1977 "Saturday Night Fever", a década de 1980 e décadas seguintes na música eletrônica foram marcadas pelo surgimento da música eletrônica dançante, levando ao desenvolvimento de novas ramificações como o techno, o house e o trance. A música eletrônica torna-se a partir de então, além de um estilo musical, um estilo de vida marcado pelas raves (eventos sociais de elevação de consciência baseados em música eletrônica[20]) e pelos DJs (músicos que utilizam instrumentos musicais eletrônicos para executar composições).
O desenvolvimento do techno em Detroit e house music em Chicago na década de 1980, além do acid house no Reino Unido no início da década de 1990 aceleraram o desenvolvimento e a aceitação da música eletrônica na indústria da música, introduzindo a música eletrônica dançante às casas noturnas. A composição eletrônica pode seriar ritmos mais rápidos e precisos que os criados pela percussão tradicional, além de oferecer a possibilidade de misturas e adição de outros elementos como instrumentos musicais tradicionais e vocais. O estilo desenvolveu-se de tamanha maneira a tornar-se comercialmente acessível que mesmo artistas pop chegaram a compor usando o estilo, como nos álbuns Believe da cantora Cher, Ray of Light da cantora Madonna e Fever da Cantora Kylie Minogue. Destaque para os álbuns Music for the Masses de Depeche Mode e Power, Corruption and Lies de New Order, que se tornaram álbuns chaves no desenvolvimento da música eletrônica em geral.

Rave em Belo Horizonte, 2006
Raves
Um elemento importante para o desenvolvimento da música eletrônica dançante foi o desenvolvimento das raves. Tais festas de música eletrônica começaram como uma reação às tendências da música popular, a cultura de casas noturnas e o rádio comercial. Seu objetivo primordial era a interação entre pessoas e elevação da consciência (uma fuga da realidade) através de diversas formas de arte. A música eletrônica teve papel fundamental em tais festas na medida em que proporciona através das batidas repetitivas e progressivas um efeito hipnótico nos participantes, potencializado pela utilização de entorpecentes. A partir do desenvolvimento do estilo eletrônico na década de 1980 foram promovidos eventos em regiões rurais destinados a reunião de pessoas, dança e utilização de ecstasy. De forma análoga, o movimento hippie da década de 1960 pregava a reunião das pessoas e a utilização de drogas (especialmente o LSD) como forma de elevação de consciência. Mesmo com a reação negativa da mídia em relação a tal cultura o estilo foi se desenvolvendo, resultando em um estilo de vida para os participantes. Outros gêneros musicais presentes em raves incluem o drum and bass e a música ambiente. A partir do final da década de 1990 o termo caiu em desuso pelos seus participantes na Europa devido à massificação e desvirtualização do uso.

DJ Marky em apresentação
Acid e drum and bass
O acid house foi um estilo derivado da house music levado para o Reino Unido no final da década de 1980 para tornar-se parte integrante da cultura local de raves. Foi amplamente dependente do sintetizador e sequenciador Roland TB-303, o que tornava seu som bastante característico. O acid foi uma das maiores influências para a criação do drum and bass (originalmente conhecido como jungle até por volta de 1995), um estilo de música eletrônica dançante caracterizado pela batida rápida e pesada ("seca") da bateria, com a presença marcante do baixo. Um dos maiores divulgadores do estilo foi o DJ britânico Goldie.[21] Outro DJ relevante ao drum and bass é o brasileiro Marky, um ícone da música eletrônica no país. Sendo considerado um renovador do estilo no final da década de 1990, Marky também é reconhecido no Reino Unido, terra natal do jungle.
Trance
Outra vertente da música eletrônica dançante é o trance. Apesar de suas origens datarem desde a década de 1970 com artistas como Klaus Schulze, foi a partir de artistas de acid house que acabou ganhando uma cena própria, com a cena techno da Alemanha no início da década de 1990; Frankfurt é geralmente referenciada como o berço do estilo. No mesmo período desenvolvia-se em Goa, Índia, outro movimento da cena eletrônica baseado no EBM, o Goa trance, influenciado pela cultura da Índia e pela música psicadélica da década de 1960. O gênero foi migrado para a Europa em Londres, desenvolvendo-se de forma a ramificar-se no que atualmente chama-se EuroTrance. A partir da década de 1990, o desenvolvimento para um trance melódico e comercial possui como expoentes compositores como Paul Oakenfold, Paul van Dyk e Tiesto. Tais artistas foram tornando-se cada vez mais aceitos comercialmente, o que originou o EuroTrance.

Mural de Recados