Ma non esistono solo ampiezza e lunghezza



Documenti analoghi
Teoria e pratica I formati sonori

I SUONI. I suoni Il campionamento File Wave e Midi

Tecnologie Multimediali a.a. 2017/2018. Docente: DOTT.SSA VALERIA FIONDA

Tecnologie Multimediali a.a. 2018/2019. Docente: DOTT.SSA VALERIA FIONDA

La codifica dei suoni

1.3d: La Codifica Digitale dei Suoni

La codifica del testo

1.3c: La Codifica Digitale dei Suoni

LA CODIFICA DEI SUONI

1.3d: La Codifica Digitale dei Suoni

La codifica dei suoni

DAE Digital Audio Experience

4.3: La Codifica dei Suoni e dei Video

Informazione binaria: suoni, immagini, sequenze video

Sistemi di Elaborazione delle Informazioni 6 CFU

La codifica dei suoni

Analogico vs digitale

La natura fisica del suono

Modulo 1. Concetti base della Tecnologia dell informazione. Prof. Nicolello Cristiano. Modulo 1

Concetti Introduttivi. Rappresentazione delle informazioni

La codifica del suono. Informatica di Base D -- Rossano Gaeta 102

Le onde. Definizione e classificazione

Le caratteristiche del SUONO 1 / 22

Rappresentazione delle immagini

Rappresentazione digitale del suono

Codifica dei segnali audio

Il suono è dovuto alla vibrazione di un corpo elastico Le vibrazioni sono rapidi movimenti di oscillazione del corpo intorno ad una posizione di

Segnale analogico. Analogico vs digitale. Segnale digitale. Trasformazione da analogico a digitale

Scaletta organizzativa per il laboratorio

Ascoltare Fourier. Segnali audio. ω o. θ è l angolo di fase

QUANTIZZAZIONE E CONVERSIONE IN FORMA NUMERICA

CORSO%DI%% A.A.% % Sezione%03c% SPETTRO ACUSTICO FISICA%TECNICA%AMBIENTALE%

La natura fisica del suono

La natura fisica del suono

Modulo 1: Le I.C.T. UD 1.2a: Analogico/Digitale

ACUSTICA E PSICOACUSTICA MUSICALE

Il sistema binario: bit e Byte Codifica del testo Il Byte come U.d.M. dell'informazione Multipli del Byte

L informazione numerica

ONDE ELASTICHE. Un onda elastica è una perturbazione che si propaga in un mezzo elastico senza movimento netto di materia.

Transcript:

Suono: vibrazione acustica capace di produrre una sensazione uditiva Il suono è dovuto a particolari movimenti o vibrazioni, generati da una sorgente sonora, capaci di propagarsi nei solidi, nei liquidi e nei gas e quindi anche nell aria. Il nostro orecchio avverte le variazioni di pressione del mezzo (per es. aria) e traduce queste variazioni di pressione in stimoli nervosi che arrivano sino al cervello dove vengono rielaborati e interpretati. L onda sonora è esprimibile mediante una curva continua. la lunghezza d onda (segmento blu) indica la tonalità (o altezza) del suono, l ampiezza (segmento verde) rappresenta il volume (o intensità) del suono. Questo suono è più acuto Questo suono è più grave Contrariamente al suo significato nel linguaggio comune, con altezza di un suono non si indica la forza o il volume del suono, ma una quantità che permette di distinguere suoni acuti (per es. un violino) da suoni gravi (per es. un contrabbasso). Per misurare l altezza di un suono bisogna considerare la frequenza di oscillazione, cioèilnumerodioscillazioni complete (cicli) compiute nell unità di tempo. Più elevata è la frequenza di un suono, minore è il tempo che impiega a compiere una oscillazione, più oscillazioni complete sono state compiute nell unità di tempo, e quindi più acuto sarà il suono.

L unità di misura della frequenza è l hertz. Questo suono ha un volume basso Una persona giovane, con l udito perfetto, riesce a percepire suoni gravi a partire da circa 16 Hz e suoni acuti fino a circa 16 KHz. Questo suono ha un volume alto Infrasuoni Area Uditiva Ultrasuoni Ma non esistono solo ampiezza e lunghezza L ampiezza di un onda sonora rappresenta l intensità di un suono e viene misurata in decibel o db.. Es.: Su uno stesso brano musicale il suono prodotto da una chitarra e da un pianoforte è diverso. Suono Intensità (db) In corrispondenza della stessa nota la corrispondente corda del piano e quella della chitarra vibrano con la stessa frequenza, ma in modo diverso. Lancio di una navicella spaziale 160-200 Soglia del dolore 140 Musica Rock 120 Delle Grida 100 Una conversazione 40-80 Un leggero bisbiglio 20 Ciascuno strumento dà una sua "impronta" (o timbro) alla nota; in altre parole si tratta di onde rappresentate da funzioni che hanno lo stesso periodo ma hanno grafici con forma anche molto diversa. Il timbro rappresenta il terzo elemento caratterizzante dei suoni. Le sorgenti sonore complesse, come la nostra voce o gli strumenti musicali, non generano dei suoni sinusoidali puri. Il segnale emesso è composto da una serie di due o più onde audio, ognuna con una propria frequenza ed ampiezza. Il segnale nel suo complesso ha una frequenza fondamentale (quella con ampiezza più grande) e delle frequenze secondarie dette armoniche. La nostra capacità di distinguere i suoni degli strumenti, anche sulla stessa nota musicale, dipende dal fatto che ogni strumento emette il suono con le stesse armoniche aventi, però, ampiezze diverse. Un rumore è una sovrapposizione casuale di frequenze diverse, non armonicamente correlate, e non può essere descritto dai tre parametri altezza, intensità e timbro. Il grafico corrispondente ha una forma brutta, priva di regolarità.

Suoni? Cifre binarie La rappresentazione dei suoni in un computer OK Impulsi elettrici Il suono, per essere trasformato all interno del computer, deve subire due trasformazioni. Segnale analogico 1) La prima viene fatta dal microfono, che raccoglie le onde sonore presenti nell ambiente e le trasforma in segnali elettrici. Il segnale così ottenuto è anch esso rappresentabile mediante onde e viene detto di tipo analogico. Esso varia con continuità e quindi può essere rappresentato graficamente mediante una linea curva continua. 2) La seconda trasformazione (digitalizzazione) converte il segnale analogico in forma numerica o digitale. Questa trasformazione è effettuata dalla scheda audio. Il procedimento è il seguente: si fanno delle letture del segnale ad intervalli di tempo regolari e molto brevi, memorizzando nella forma digitale anziché tutti i punti che formano l onda, solo i valori in corrispondenza di tali intervalli.

Questo procedimento è detto campionamento (discretizzazione temporale) per il fatto che vengono letti non tutti i punti, ma solo alcuni di essi, che costituiscono, appunto, un campione. Per ogni punto viene memorizzato un numero che rappresenta il valore di ampiezza corrispondente, riportato sull asse delle ordinate. Questi numeri, trasformati in base 2, rappresentano il segnale digitale. Frequenza di campionamento La frequenza di campionamento (sampling rate) è il numero di campioni rilevati in un intervallo, corrisponde, quindi, al numero di volte che il segnale è campionato nel tempo (sec). Corrisponde all inverso del periodo di campionamento. E un parametro fondamentale che determina la somiglianza tra il segnale digitalizzato e quello analogico. Viene misurata in khz. Teorema di Niquist-Shannon Un segnale analogico può essere completamente ricostruito a partire dai suoi campioni se si effettua il campionamento ad una frequenza almeno doppia rispetto alla sua frequenza massima. f c >2f max Esempi di frequenza di campionamento In campo telefonico viene destinata alla voce una banda di frequenza tra 300 Hz e 3,4 KHz, per cui si potrebbe campionare il messaggio a partire da 6,8 KHz. I brani musicali memorizzati su CD devono essere fedeli ai brani musicali, quindi, poiché la banda acustica del nostro orecchio arriva al massimo fino a circa 20 KHz, si sceglie una frequenza di campionamento di 44,1 KHz (44.100 campioni al secondo). Nei comuni software di digitalizzazione audio, il numero di campioni prelevabili può arrivare anche fino a 96.000 al secondo. Quantizzazione e codifica dei suoni Quantizzazione e codifica dei suoni Dopo che è stato campionato, il segnale non è ancora in una forma utile per essere memorizzato ed elaborato da un computer (i valori prelevati sono numeri reali composti da infinite cifre). Con la quantizzazione, i valori reali campionati vengono convertiti in valori discreti attraverso un approssimazione. Una volta definiti i livelli di quantizzazione mediante i quali approssimare i campioni del segnale, ogni campione quantizzato viene codificato con un diverso numero binario. La lunghezza delle parole binarie utilizzate per quantizzare ciascun campione si chiama bitdepth (profondità di bit). Tipicamente si utilizzano parole di 8 bit (con 256 valori di campionamento distinti) o di 16 bit (con 65.536 valori di campionamento distinti).

Frequenza di campionamento bassa Quantizzazione a 8 bit Frequenza di campionamento alta Quantizzazione a 8 bit 0 62 97 97 62 0 0 36 62 84 97 102 97 84 62 36 0 Frequenza di campionamento bassa Quantizzazione a 16 bit Frequenza di campionamento alta Quantizzazione a 16 bit 0 15860 24792 24792 15860 0 0 9253 15860 21601 24792 26115 24792 21601 15860 9253 0 Ma non bisogna sottovalutare che... Un altra componente che può modificare la qualità del suono digitale è il tipo di registrazione (mono, stereo, Dolby Surround). Anche questa influenza l occupazione in memoria del file audio. Una registrazione stereo, infatti, occupa il doppio di una mono perché i suoni stereo sono acquisiti su due canali distinti, anche se le registrazioni sono effettuate contemporaneamente. Ciò implica un doppio spazio in memoria... Riassumendo La qualità e la dimensione di un file audio dipendono essenzialmente da tre variabili: la frequenza di campionamento, il bitdepth, il numero di canali. Il prodotto di queste tre variabili prende il nome di bitrate (numero di bit utilizzati nel campionamento di un secondo di suono) La dimensione complessiva di un file audio (non compresso) è data da Bitrate x durata in sec del brano

Facciamo quattro conti. Se volessimo calcolare la quantità di memoria occupata da un file sonoro di 1 minuto in modalità stereofonica (2 canali) registrato con frequenza di campionamento 44,1 KHz e con profondità di 16 bit (CD-quality) (per comodità calcoliamola direttamente in byte) Microfono,... (input) Quindi... Scheda audio Unità centrale Profondità = 2 byte Frequenza di campionamento = 44,1 KhZ Numero di canali = 2 Bitrate= 172,27 KBps 10010101001.. Quantità di memoria occupata per un minuto di musica = 172,27 KBps * 60 sec~10 MB Onda sonora Segnale elettrico analogico Segnale digitale Procedimento inverso Con il procedimento inverso, partendo cioè dal segnale digitale, sarà possibile ricostruire l andamento dell onda e riprodurla. Anche questa trasformazione viene compiuta dalla scheda audio. Le casse poi, che svolgono una funzione opposta a quella del microfono, trasformeranno il segnale elettrico in vibrazione da propagare nell aria, cioè nel suono vero e proprio. In questo caso il segnale procederà per salti, in modo discontinuo, e quindi la rappresentazione non può essere fatta con una linea curva continua, ma mediante una spezzata. Più alta è la frequenza di campionamento che era stata scelta nell acquisizione del suono, più breve è l intervallo tra i punti campionati e più la linea spezzata, che rappresenta la ricostruzione della forma dell onda, sarà simile a quella analogica di partenza e quindi la ricostruzione del suono fedele. Casse (output) Viceversa... Scheda audio Unità centrale Il formato wave (Waveform audio format,.wav) 10010101001.. Segnale digitale Il formato Wave è lo standard di Windows per file sonori. E un formato compresso, con compressione piuttosto scarsa (1 minuto di suoni ~ 10 MB) E uno dei più diffusi, anche per i brani musicali presenti nei classici CD Audio Quando si registra con il Registratore di suoni Windows si crea un file di questo formato. Onda sonora Onda ricostruita partendo dal segnale digitale

I file Midi (Musical Instrument Digital Interface,.mid o.midi) Il file audio non è ottenuto digitalizzando un onda sonora, ma registrando le istruzioni per suonare le note, con i relativi tempi e con diversi strumenti musicali, come da spartito (1 minuto di musica ~10 Kb) Per creare un file audio è sufficiente: Collegare uno strumento musicale all interfaccia MIDI, Scegliere tra note musicali e strumenti preesistenti nella memoria del computer, Comporre nuovi brani musicali utilizzando il computer per sommare diversi strumenti musicali. Una differenza importante tra i due formati è che in un file midi ci sono solo comandi, in un file wave ci sono suoni. Si può quindi dire che la differenza fra un file midi e un corrispondente file audio Wave è paragonabile alla differenza fra lo spartito di un brano e un nastro contenente lo stesso brano registrato. Un altra essenziale differenza è che nei file wave (come nei disegni bitmap) non è possibile modificare un elemento singolo del suono; nei file midi (analogamente ai disegni vettoriali) ogni elemento è trattabile separatamente...aiff,.aif: il formato AIFF (Audio Interchange File Format) di Apple è un formato analogo al wave. Altri formati audio.au: molto diffuso e utilizzato principalmente su Unix. Il formato au, inoltre, gestisce anche modalità più efficienti di quantizzazione che permettono una riduzione della mole di dati anche di 4 volte il valore originale, al costo di una modesta perdita di qualità..ra (Real Audio): formato compresso con algoritmo di tipo lossy, produce un notevole abbassamento delle dimensioni, ma provoca una perdita di qualità considerevole. Per riprodurre i suoni.ra è necessario il Real Player. E molto utilizzato in Internet perché consente l ascolto in streaming (modalità di trasmissione di un flusso di dati, stream, da una sorgente che consente lo scaricamento ed il loro utilizzo in tempo reale, senza attendere che lo scaricamento sul computer sia terminato). MPEG (Moving Picture Expert Group): nasce all'inizio degli anni '90 come standard per la diffusione del segnale audio digitale (oltre che quello video) di qualità paragonabile a quella del CD audio. Analogamente a quanto fanno i sistemi di riduzione del rumore della famiglia Dolby, MPEG adotta tre sistemi di codifica differenti denominati layer1, layer2 e layer3 (quest'ultimo noto anche come MP3), di efficacia e complessità nell'ordine crescenti. Con MP3 è possibile comprimere i file audio (e video) senza alcuna rilevante perdita di qualità, arrivando addirittura a rapporti di compressione di 12:1. Ad esempio una canzone di 5 minuti che in formato Wave occupa circa 50 MB può essere ridotta a soli 4 MB. L MPEG elimina dai files audio determinate informazioni che non sono necessarie. Per far questo si basa sui risultati di ricerche di Psicoacustica, una disciplina scientifica che si occupa della percezione uditiva nell uomo.

Questi studi rivelano che il nostro orecchio non è in grado di percepire frequenze deboli adiacenti a frequenze forti, in quanto queste ultime coprono le prime. Le informazioni inerenti le frequenze più deboli quindi, poiché queste ultime non sarebbero comunque percepibili dall orecchio umano, vengono eliminate dall MPEG durante la fase di compressione. In questo modo si ottiene una notevole riduzione del file audio in termini di spazio fisico occupato.