MÚSICA CIBERNÉTICA

(Computer Music)

por João Marques Carrilho

Na América do Norte surgiram experiências síncronas às dos estúdios europeus, particularmente com Otto Leuning e Ussachevsky que se deslocaram para investigar o que se passava em Paris e em Colónia. Tinham já realizado uma apresentação pública da sua música em banda magnética (designada Tape Music por Ussachevsky) no Museum of Modern Art em Nova Iorque (1952). Com essas experiências nascia o Columbia-Princeton Electronic Music Center.

Outros americanos foram seminais para a música electrónica, como por exemplo Pauline Oliveros em Bye Bye Butterfly (anos 1960), ou Gordon Mumma, quer individualmente quer em colaboração com John Cage e David Tudor. Mumma participou igualmente no Sonic Arts Union, com outros compositores interessados no meio electrónico : a brain music de David Behrman e Alvin Lucier entre outros.

Note-se igualmente que um movimento como o Minimalismo esteve no início intimamente ligado às técnicas da Tape Music, como no caso de It’s Gonna Rain (1965) ou Come Out (1966) de Steve Reich. Outros como Terry Riley desenvolveram sistemas electrónicos próprios que permitiam ao compositor a improvisação e transformação electrónica em tempo-real (no caso de Riley um sistema de acumulação de diversos delays).

Uma das maiores contribuições americanas para o desenvolvimento da música electrónica foi um estudo aprofundado da utilização musical do computador. Qualquer do instrumentos electrónicos de até então, por exemplo o Theremin (1920), Trautonium (1928), Ondes Martenot (1928), Órgão Hammond (1935).

Todos os procedimentos da geração de sons electrónicos são denominados de síntese sonora. Até então utilizava-se a o método de adição de ondas sinusoidais já mencionado (Síntese Aditiva) ou o método que utiliza filtros, e que parte geralmente de ruído (Síntese Subtractiva).

O computador permitiu a generalização de todos esses métodos pois estamos perante um instrumento que é absolutamente programável. Isso significa que a complexidade do seu comportamento depende da nossa imaginação, das regras que predeterminados para um funcionamento adequado e dos limites de velocidade de computação impostos pela máquina. O computador permite assim não só qualquer tipo de síntese sonora imaginável como veio substituir todo o equipamento de estúdio, realizando em segundos operações de montagem (por exemplo), que demoravam meses a realizar nos estúdios analógicos (cortar e colar milimétricamente fita magnética)

Outra funcionalidade fundamental do computador foi introduzida sobretudo por Iannis Xenakis e Koenig: O computador como assistente à composição musical. Neste caso o computador lida simbolicamente com todos os parâmetros musicais desejados (alturas, intensidades, instrumentação, etc…) que serão submetidos a processos algorítmicos de complexidade variável e eventualmente imprimidos para a realização de uma partitura musical.

Do serialismo integral tinha já sido desenvolvida a ideia de controlar todas as variáveis musicais individualmente. Na música electrónica, isso significou que um interesse acrescido pelo controlo de parâmetros individuais.

Alguns desses parâmetros fundamentais num som electrónico são o seu envelope temporal (a variação dinâmica de volume) e o seu envelope espectral (variação dinâmica do timbre). Máximos no envelope temporal significam sons de grande intensidade, enquanto que zonas máximas no envelope espectral correspondem a certas ressonâncias características. Essas resonâncias são denominadas formantes e são de grande importância no estudo da voz humana. Recentemente a sua aplicação extendeu-se de forma espectacular ao estudo de instrumentos musicais.

Outra das possibilidades fulcrais do computador foi a controlo rigoroso da automação. No domínio electrónico, cada parâmetro (por exemplo a intensidade sonora), pode ser controlado quer manual quer algoritmicamente e reproduzido e/ou alterado em qualquer detalhe. Esse procedimento pode ser estendido a um grande número de parâmetros, e essa é uma das metodologias principais em música electrónica que mantém toda a actualidade. Desenvolveram-se igualmente sistemas capazes de lidar simultaneamente com um grande número de parâmetros, um avanço importante pois a ideia serial de que as variáveis musicais são absolutamente independentes é hoje em dia uma ideia do passado (utilização de técnicas provenientes da Inteligência Artificial, por exemplo). A verdade é que todas as variáveis interagem, como no caso das experiências em psicoacústica de S. Stevens: quando fazemos variar o volume de um som, a nossa percepção de altura é igualmente afectada.

As primeiras experiências musicais com computadores focavam-se sobretudo na síntese sonora e tiveram lugar nos Laboratórios Bell em 1957. Edgar Varèse visitou esses laboratórios entre 1959-60, e organizou audições públicas dessas primeiras experiências auditivas. Uma das composições mais famosas produzida nos laboriatórios Bell é a Suite Iliac (1957), que se inicia com as regras do cantus firmus como as estipuladas por Fux e foram previamente inseridas no programa de computador. Apesar do grande interesse por síntese, nesta obra o computador foi utilizado para gerar uma partitura musical para quarteto de cordas.

Em 1968, Max Mathews e John Pierce, nos Laboratórios Bell chegaram a um paradigma que viria a influenciar a maioria dos procediementos posteriores de síntese sonora (Music V). Com qualquer programa deste tipo, o compositor é confrontado com dois aspectos essenciais. A composição electrónica é separada nos aspectos ligados à síntese e outros ligados ao que pode ser designado de “partitura“, que em nada se assemelha a uma partitura convencional, e representa simplesmente os procedimentos necessários para controlar os sons sintetizados. Nos aspectos relacionados com a síntese, o sistema é aberto e permite uma arquitectura modular em que o compositor se transforma ao mesmo tempo num construtor de instrumentos electrónicos partindo de módulos muito simples. James Tenney é um dos compositores convidados a experimentar o sistema e algumas experiências de Ferreti (1965) antecipam outro aspecto fundamental da utilização futura do computador: a interacção em “tempo-real“ entre músicos e computadores. (tempo-real significa que a computação ocorre ao mesmo tempo que o músico está a tocar).

Um dos mais importantes compositores a trabalhar extensivamente nos laboratórios Bell foi Jean-Claude Risset, que desenvolveu a análise sonora, interessando-se também por psicoacústica. Iniciando um trabalho sobre os sons de trompete, estudados em computador (1966), compilou um catálogo de sons sintetizados por computador (1969), que apesar da sua evidente ligação ao sistema que lhes deu origem mantém-se ainda hoje como uma das únicas tentativas do género.

Na peça Mutations I (1969), Risset explora a relação entre harmonia e timbre: quando soam simultaneamente, diversas notas fundem-se num único timbre (sino, por exemplo). Quando ouvidas em sequência, essas notas tomam um carácter essencialmente melódico.

Uma das grande inovações em termos de síntese sonora foi a utilização da modelação de frequência : Síntese FM, por John Chowning em 1973. A grande vantagem é que esta técnica permitia uma rápida elaboração de timbre complexos, quer harmónicos (aproximadamente como um instrumento de corda) quer inharmónicos (por exemplo o som de um gongo), e mesmo uma passagem contínua entre os dois estados. Isto revelou-se bem mais eficiente que laborioso processo de adição de ondas sinusoidais (Síntese Aditiva), e utilizado desde então em sintetizadores distribuidos à escala mundial como o Yamaha DX7; recorrendo a este método, entre outros, Chowning realizou Turenas, em 1972.

Um dos maiores expoentes da síntese por computador foi Iannis Xenakis.

Xenakis introduziu métodos matemáticos avançados na mais diversas áreas da composição musical, no domínio da geração de novos sons criou a Síntese Estocástica, um procedimento em que o compositor lida com distribuições de probabilidade na criação dos timbres de uma composição electrónica. Xenakis realizou importante trabalho em arquitectura em colaboração com Le Corbusier, por exemplo no Pavilhão Phillips 1958. Inspirado por essa experiência criou o sistema UPIC, que é ainda hoje um dos mais avançados sistemas de composição electrónica, sobretudo pela sua forma de utilização altamente intuitiva. Muito semelhante a uma mesa de um arquitecto, este sistema permite ao compositor desenhar linhas ou quaisquer figuras que são transformadas em som através de um sistema informático.

Outra das concepções do prolífero Xenakis foi a noção de Síntese Granular. Gabor tinha já introduzido a noção de grão, que Xenakis tomou num sentido estatístico, tanto em música instrumental como electrónica. Por oposição ao sentido “vertical“ da síntese que tinhamos encontrado nos principios da música electrónica de Colónia, uma noção como a síntese granular é sobretudo “horizontal“, o que significa que o mais importante é o controlo dinâmico do som; no entanto é de mencionar que esta questão relaciona problemas fundamentais. Para o próprio Xenakis, a composição musical consiste em saber como chegar de A a B, numa negação completa da noção de timbre “com qualidade de estúdio“ que caracterizou tantas estéticas posteriores mais preocupadas com a produção do som (pelo aspecto puramente exterior da música). Por outro lado desafia a noção do mais pequeno elemento sonoro, questão fundamental em música electrónica. Outra das ideias de Xenakis era a formalização da música, na qual o computador seria uma ferramenta de grande utilidade (ver por exemplo, Musique/Architecture ou Musiques Formelles).

No domínio da voz e electrónica, Berio e Maderna haviam já realizado, em colaboração com Cathy Berberian, obras da maior importância para voz e electrónica, como Thema (Ommagio a Joyce) (1958), de Berio. Relativamente à síntese electrónica da voz humana, os maiores desenvolvimentos surgiram com a aplicação dos métodos LPC (uma espécie de filtro que tenta prever o futuro imediato de um som), por Charles Dodge e sobretudo a Síntese de Formantes, que permitiu a criação do sistema Chant no IRCAM em Paris, no final dos anos oitenta (a peça Vers le Blanc, 1982 de Kaija Saariaho, utiliza exclusivamente o programa chant). As bases deste sistema implicam também um conhecimento cientifico avançado, o conceito mais simples é a separação do som numa parte ressoante (o som do corpo de um violino, por exemplo) e um sinal de excitação (como a acção de um arco deslizando sobre as cordas de um violino). Outro exemplo: identificamos vogais pois cada uma possui uma área de resonância característica (independentemente da voz ser aguda ou grave).

Finalmente vale a pena mencionar os métodos de Análise/Ressíntese obtida por um vocoder de fase, que decompõe o som num grande número de ondas sinusoidais, e permite uma combinação e mutação do timbres completamente nova. Uma das ideias recentes mais importantes é a de Síntese Cruzada (Cross-Synthesis), a qual se baseia nas técnicas do vocoder. Através dele é possível, como exemplo elementar, “falar“ através do timbre de um sintetizador, ou mesmo do som do oceano, o que significa que certas características vocais são combinadas com o timbre característico das ondas do oceano. A ideia do vocoder de fase foi ulteriormente levada a novos limites com o compositor Trevor Wishart e todo o projecto informático do Composers Desktop Project.
Hoje em dia uma das mais importante aplicações do computador é precisamente o seu aspecto interactivo, utilizando o “tempo-real“. Esta utilização tem as suas raízes em obras que utilizam a transformação electrónica através de meios analógicos, como Mantra (1970), para 2 pianos, 2 ring-modulators, crótalos e blocos de madeira, de Stockhausen ou Con Luigi Dallapiccola (1979), de Luigi Nono.

A presença de Varèse e Schoenberg nos EUA deixou marcas importantes.

John Cage, que tinha sido aluno de Schoenberg, declarara já o Ruído como musical e adivinha a sua importância futura (tal como a da música electrónica em geral) em The Future of Music: Credo, 1937. A utilização do ruído em música remonta a Varèse, aos Futuristas Russos e Italianos…

Com uma estética absolutamente própria, Cage abordou a electrónica tanto do ponto de vista de sons gravados em fita magnética, como da amplificação ao vivo de situações acústicas (por exemplo: amplificação interior de pessoas ou tráfego exterior ao concerto em si) e sons “pequenos“ ou inaudíveis (por exemplo: amplificação da sua garganta enquanto bebia um sumo). Entre 1967-69 colaborou com Lejaren Hiller na composição de HPSCH, para cravos e sons gerados por computador.

A sua dedicação a Schoenberg era total, e conta que uma dos maiores pensamentos que obteve dele foi o seguinte: durante uma aula foi pedido para apresentar diversas soluções para o mesmo problema musical. No fim Schoenberg perguntou:

Qual é o principio em que assentam todas as soluções?

Cage apenas encontrou a resposta após a morte do seu professor:

As questões que colocamos a nós próprios são os princípios na base de todas as soluções.

João Marques Carrilho

2007 C SPA

John Cage