Informatica musicaleL'informatica musicale è una disciplina che analizza le tecniche relative all'uso dei sistemi informatici per la produzione e l’elaborazione dell’informazione musicale.[1] Inoltre, viene utilizzata dall'informatica per risolvere necessità legate alla musica attraverso la creazione di hardware e strumenti che aiutano la composizione e l'esecuzione musicale. L'applicazione dell'informatica al contesto musicale è data da due fattori principali: le aziende informatiche che sfruttano il rapido sviluppo della musica provocando notevoli cambiamenti nelle modalità di produrla; il sistema informatico, detto computer, ritenuto polifonico e politimbrico in quanto simula i suoni o dà vita a nuove acustiche elettroniche attraverso programmi e accessori multimediali. Quest’ultimo svolge anche compiti di uno studio di registrazione per elaborazione e montaggio di suoni detenendo anche una certa importanza in campo editoriale. StoriaL'informatica musicale nasce nella seconda metà degli anni cinquanta, ed è fin dalle origini caratterizzata da due approcci diversi:
Le prime applicazioni pratiche si hanno negli anni sessanta e sono costituite da contenuti musicali registrati sul nastro che sostenevano la voce dei solisti o cantanti tradizionali durante le esibizioni. L'uso di contenuti registrati era necessario perché i programmi e gli elaboratori collettivi (o mainframe) disponibili impiegavano molto tempo a mettere in pratica l’idea e il pensiero musicale di un artista a livello di suoni. Il progresso tecnologico porta in seguito alla creazione di strumenti di sintesi e manipolazione sonora in tempo reale grazie all'uso di minicomputer. Di conseguenza, nascono nuove modalità musicali caratterizzate dalla possibilità di modificare le sonorità di strumenti o voci durante i concerti dal vivo. Gli anni ottanta sono poi influenzati dall'arrivo di due innovazioni molto importanti:
Codifica e rappresentazione del suonoLa musica è elaborata dall'informatica attraverso due rappresentazioni diverse: audio e simbolica. La prima ha il compito di rappresentare direttamente il suono attraverso successioni numeriche; la seconda rappresenta il suono attraverso linguaggi e sistemi grafici variabili a seconda del contesto (editoria musicale, musicologia e assistenza al prodotto musicale). La normale metodologia usata dalla rappresentazione audio è il campionamento, che estrae segnali sonori e digitali da strumenti musicali abituali. Generalmente, i suoni si riferiscono a segnali, ovvero funzioni di una o più variabili indipendenti, che trasportano informazioni e sono incaricati di trasmettere l’informazione musicale. I segnali si suddividono in segnale continuo, caratterizzato da intervalli di tempo continui e raffigurato da funzioni variabili continuo, e segnale discreto, definito come una serie numerica in cui le variabili indipendenti assumono soltanto valori discreti nel tempo. Sintesi dei suoniIl processo per cui viene generato un suono è chiamato sintesi del suono e segue un algoritmo che consente di calcolare i valori dei campioni che costituiscono il suono. Il suono campionato generato tende a essere simile all'emissione musicale prodotta durante la composizione. Per raggiungere questo obiettivo, non solo vengno formate raccolte di suoni campionati per un determinato strumento, ma vengono delle modifiche come passaggi di altezza, filtraggi e cambiamenti di durata (looping). Gli studi sulla musica elettronica hanno individuato più tipologie di sintesi del suono:
Modelli di sorgente e segnaleI modelli di sorgente riproducono l’aspetto concreto della fonte sonora in modo da ridurre la quantità di bit/secondo necessari alla trasmissione dell’informazione musicale. I modelli di segnale sono dinamici a livello di calcolo, diffusi e regolati dal metodo di campionamento. Questi modelli svolgono due azioni differenti: la generazione di suoni, condizionata dalle decisioni grafiche del compositore; la simulazione di suoni, fatta dai tipici strumenti musicali. La differenza tra modelli di sorgente e di segnale sta nella diversa capacità di sfruttare i criteri di controllo corrispondenti ai movimenti effettuati dal musicista con il proprio strumento. Perciò, mentre il modello simula i suoni prodotti dallo strumento musicale, il musicista fonde le proprie conoscenze tradizionali sulla musica con l'abilità nel suonare la sorgente potenziale. Gli studi e le ricerche fatte sui modelli hanno origine dal tentativo di ridurre il flusso di informazione necessario a trasmettere il parlato. Questo tipo di indagini ha permesso di mettere in luce le proprietà dei suoni emessi nel parlato e ha prodotto uno dei primi modelli fisici. Ogni modello fisico è caratterizzato dalla relazione che si instaura tra un eccitatore, ragione per cui un suono può variare di altezza e durata, e un risuonatore affinché si possa ottenere, con tecniche diverse, un’efficiente sintesi del canto di un brano musicale [4]. Esistono anche altri tipi di modelli legati alla sintesi del suono: quando la relazione di un modello è garantita da una successione di equazioni differenziali, ottenute dalla frammentazione dello schema fisico in componenti, si parla di modelli meccanici; quando un sistema fisico viene diviso in costituenti isolati, il modello è realizzato per la sintesi modale, fondamentale per la teoria dei sistemi; gli ultimi tipi di modelli sono detti a guide d'onda caratterizzati da una natura computazionale complessa e rappresentati da aspetti fisici che ne evidenziano le interruzioni. Digital Signal ProcessingIl Digital Signal Processing (DSP), in italiano "elaborazione numerica dei segnali", è un processo che permette l'osservazione e la visualizzazione in tempo reale del suono campionato ed elaborato su degli appositi processori detti Digital Signal Processor, realizzati alla fine degli anni ’80. Poco dopo, vennero sostituiti per la maggior efficienza e semplicità nell'elaborazione dai Personal Computer. In molti campi della scienza e della tecnologia, i segnali sono elaborati per semplificare l'estrazione di un'informazione. Perciò, lo sviluppo di sistemi per l'elaborazione dei segnali è diventato molto importante e ha permesso la trasformazione di un segnale in un altro ritenuto più auspicabile rispetto a quello originario. Si possono distinguere una grande varietà di sistemi:
L'elaborazione dei suoni è realizzata da programmi che attuano un cambiamento di segnale: la lunghezza di un suono può essere modificata con metodologie simili adottate per la variazione di altezza dei suoni. I cambiamenti di altezza e durata del suono sono legati all'ambito del timbro per cui un suono viene reso più acuto o grave in dipendenza delle dinamiche che affronta. Le modalità di sintesi dei suoni sono in grado di variare l'altezza indipendentemente dalla durata del suono. Se ne possono elencare alcune:
I cambiamenti di altezza e durata del suono sono legati all'ambito del timbro per cui un suono viene reso più acuto o grave in dipendenza delle dinamiche che affronta. In pratica, Il suono e il segnale vengono spostati in frequenza per merito della modulazione che rende i suoni armonici, poi per il fenomeno di granulazione si prelevano porzioni di suono in modo tale da amplificare il segnale fino alla convoluzione per cui viene prodotto l'intero spettro sonoro di due suoni. Sistemi MIDI e per l'esecuzioneIl sistema MIDI è un protocollo di comunicazione seriale a 8 bit e velocità di trasmissione di 31 250 bit/s, concepito per codificare i suoni prodotti da una tastiera elettronica sensibile al tocco per trasmetterli in tempo reale ad altri dispositivi [5] La tastiera elettronica detta master keyboard è legata a un sintetizzatore (expander) e ad un elaboratore in cui agisce un programma detto sequencer che registra suoni e musica con un certo ritardo rispetto al tempo stabilito per l'esecuzione. Per la trasmissione dell'informazione musicale digitalizzata, viene utilizzato un formato di memorizzazione e di scambio di tracce musicali chiamato Standard Midi File (SMF). Nonostante la sua lentezza e insufficienza in alcuni processi di codifica, il MIDI rappresenta una tappa del progresso tecnologico strettamente connessa con l'evoluzione e il miglioramento dei dispositivi elettronici. Un sistema tecnologico viene convertito in strumento musicale per ottenere un brano con criteri di controllo che, ridotti e con molte funzionalità, facilitano la comprensione dell'ambiente esecutivo e l'entrata delle essenziali operazioni esecutive. Per osservare e conoscere i suoni codificati dal MIDI, vengono adottati gli ambienti multimodali interattivi (AMI) che, legati al concetto di spazio attivo, rappresentano sistemi capaci di notare proprietà comportamentali degli utenti a più livelli di dettaglio e sensibilità affinché queste entrino in relazione con il mondo reale esteso e reso complesso dalla tecnologia.[6] Il MIDI è molto importante per le industrie di strumenti musicali informatici e ha un raggio d'azione e di applicazione universale poiché è sfruttato anche in molti campi legati alla moda e allo spettacolo. Note
Bibliografia
Voci correlate |