• Save
Lezione Suoni
Upcoming SlideShare
Loading in...5
×

Like this? Share it with your network

Share
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Be the first to comment
No Downloads

Views

Total Views
5,497
On Slideshare
5,129
From Embeds
368
Number of Embeds
8

Actions

Shares
Downloads
0
Comments
0
Likes
3

Embeds 368

http://88.49.210.242 294
http://192.168.1.227 32
http://www.slideshare.net 15
http://dollearning.blogspot.com 11
http://math.unipa.it 9
http://www.math.unipa.it 4
http://localhost 2
http://dollearning.blogspot.it 1

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
    No notes for slide

Transcript

  • 1. I suoni
  • 2. Suono: vibrazione acustica capace di produrre una sensazione uditiva Il suono è dovuto a particolari movimenti o vibrazioni, generati da una sorgente sonora, capaci di propagarsi nei solidi, nei liquidi e nei gas e quindi anche nell’aria. •
  • 3. Il nostro orecchio avverte le variazioni di pressione del mezzo (per es. aria) e traduce queste variazioni di pressione in stimoli nervosi che arrivano sino al cervello dove vengono rielaborati e interpretati. L’onda sonora è esprimibile mediante una curva continua.
  • 4.
    • la lunghezza d’onda ( segmento blu ) indica la tonalità (o altezza) del suono,
    • l’ampiezza ( segmento verde ) rappresenta il volume (o intensità) del suono.
  • 5. Questo suono è più acuto Questo suono è più grave
  • 6.
    • Contrariamente al suo significato nel linguaggio comune, con altezza di un suono non si indica la forza o il volume del suono, ma una quantità che permette di distinguere suoni acuti (per es. un violino) da suoni gravi (per es. un contrabbasso).
    • Per misurare l’altezza di un suono bisogna considerare la frequenza di oscillazione , cioè il numero di oscillazioni complete (cicli) compiute nell’unità di tempo.
    • Più elevata è la frequenza di un suono, minore è il tempo che impiega a compiere una oscillazione, più oscillazioni complete sono state compiute nell’unità di tempo, e quindi più acuto sarà il suono.
  • 7. L’unità di misura della frequenza è l’ hertz . Una persona giovane, con l’udito perfetto, riesce a per- cepire suoni gravi a partire da circa 16 Hz e suoni acuti fino a circa 16 KHz. Area Uditiva Infrasuoni Ultrasuoni
  • 8. Questo suono ha un volume basso Questo suono ha un volume alto
  • 9.
    • L’ampiezza di un’onda sonora rappresenta l’ intensità di un suono e viene misurata in decibel o dB. .
    • Es.:
    20 Un leggero bisbiglio 40-80 Una conversazione 100 Delle Grida 120 Musica Rock 140 Soglia del dolore 160-200 Lancio di una navicella spaziale Intensità (dB) Suono
  • 10. Su uno stesso brano musicale il suono prodotto da una chitarra e da un pianoforte è diverso. In corrispondenza della stessa nota la corrispondente corda del piano e quella della chitarra vibrano con la stessa frequenza , ma in modo diverso . Ciascuno strumento dà una sua "impronta" (o timbro) alla nota; in altre parole si tratta di onde rappresentate da funzioni che hanno lo stesso periodo ma hanno grafici con forma anche molto diversa . Il timbro rappresenta il terzo elemento caratterizzante dei suoni. Ma non esistono solo ampiezza e lunghezza…
  • 11. Le sorgenti sonore complesse, come la nostra voce o gli strumenti musicali, non generano dei suoni sinusoidali “puri”. Il segnale emesso è composto da una serie di due o più onde audio, ognuna con una propria frequenza ed ampiezza. Il segnale nel suo complesso ha una frequenza fondamentale (quella con ampiezza più grande) e delle frequenze secondarie dette armoniche. La nostra capacità di distinguere i suoni degli strumenti, anche sulla stessa nota musicale, dipende dal fatto che ogni strumento emette il suono con le stesse armoniche aventi, però, ampiezze diverse.
  • 12. Un rumore è una sovrapposizione casuale di frequenze diverse, non armonicamente correlate, e non può essere descritto dai tre parametri . altezza, intensità e timbro. Il grafico corrispondente ha una forma “brutta”, priva di regolarità.
  • 13. Suoni Cifre binarie Impulsi elettrici OK ?
  • 14. La rappresentazione dei suoni in un computer
  • 15. Il suono, per essere trasformato all’interno del computer, deve subire due trasformazioni . 1) La prima viene fatta dal microfono , che raccoglie le onde sonore presenti nell’ambiente e le trasforma in segnali elettrici. Il segnale così ottenuto è anch’esso rappresentabile mediante onde e viene detto di tipo analogico . Esso varia con continuità e quindi può essere rappresentato graficamente mediante una linea curva continua.
  • 16. Segnale analogico
  • 17. 2) La seconda trasformazione (digitalizzazione) converte il segnale analogico in forma numerica o digitale . Questa trasformazione è effettuata dalla scheda audio . Il procedimento è il seguente: si fanno delle letture del segnale ad intervalli di tempo regolari e molto brevi, memorizzando nella forma digitale anziché tutti i punti che formano l’onda, solo i valori in corrispondenza di tali intervalli.
  • 18. Questo procedimento è detto campionamento (discretizzazione temporale) per il fatto che vengono letti non tutti i punti, ma solo alcuni di essi, che costituiscono, appunto, un campione. Per ogni punto viene memorizzato un numero che rappresenta il valore di ampiezza corrispondente, riportato sull’asse delle ordinate. Questi numeri, trasformati in base 2, rappresentano il segnale digitale.
  • 19. Frequenza di campionamento
    • La frequenza di campionamento (sampling rate) è il numero di campioni rilevati in un intervallo, corrisponde, quindi, al numero di volte che il segnale è campionato nel tempo (sec).
    • Corrisponde all’inverso del periodo di campionamento.
    • E’ un parametro fondamentale che determina la somiglianza tra il segnale digitalizzato e quello analogico.
    • Viene misurata in kHz.
  • 20. Teorema di Niquist-Shannon Un segnale analogico può essere completamente ricostruito a partire dai suoi campioni se si effettua il campionamento ad una frequenza almeno doppia rispetto alla sua frequenza massima. f c >2f max
  • 21. Esempi di frequenza di campionamento
    • In campo telefonico viene destinata alla voce una banda di frequenza tra 300 Hz e 3,4 KHz, per cui si potrebbe campionare il messaggio a partire da 6,8 KHz.
    • I brani musicali memorizzati su CD devono essere fedeli ai brani musicali, quindi, poiché la banda acustica del nostro orecchio arriva al massimo fino a circa 20 KHz, si sceglie una frequenza di campionamento di 44,1 KHz (44.100 campioni al secondo).
    • Nei comuni software di digitalizzazione audio, il numero di campioni prelevabili può arrivare anche fino a 96.000 al secondo.
  • 22. Quantizzazione e codifica dei suoni Dopo che è stato campionato, il segnale non è ancora in una forma utile per essere memorizzato ed elaborato da un computer (i valori prelevati sono numeri reali composti da infinite cifre). Con la quantizzazione, i valori reali campionati vengono convertiti in valori discreti attraverso un’approssimazione Una volta definiti i livelli di quantizzazione mediante i quali approssimare i campioni del segnale, ogni campione quantizzato viene codificato con un diverso numero binario
  • 23. Quantizzazione e codifica dei suoni
    • La lunghezza delle parole binarie utilizzate per quantizzare ciascun campione si chiama bitdepth (profondità di bit).
    • Tipicamente si utilizzano parole di 8 bit (con 256 valori di campionamento distinti) o di 16 bit (con 65.536 valori di campionamento distinti).
  • 24. Frequenza di campionamento bassa Quantizzazione a 8 bit 0 62 97 97 62 0
  • 25. Frequenza di campionamento alta 0 36 62 84 97 102 97 84 62 36 0 Quantizzazione a 8 bit
  • 26. Frequenza di campionamento bassa 0 15860 24792 24792 15860 0 Quantizzazione a 16 bit
  • 27. Frequenza di campionamento alta 0 9253 15860 21601 24792 26115 24792 21601 15860 9253 0 Quantizzazione a 16 bit
  • 28. Ma non bisogna sottovalutare che ... Un’altra componente che può modificare la qualità del suono digitale è il tipo di registrazione ( mono , stereo, Dolby Surround ). Anche questa influenza l’occupazione in memoria del file audio. Una registrazione stereo, infatti, occupa il doppio di una mono perché i suoni stereo sono acquisiti su due canali distinti, anche se le registrazioni sono effettuate contemporaneamente. Ciò implica un doppio spazio in memoria…...
  • 29. Riassumendo…
    • La qualità e la dimensione di un file audio dipendono essenzialmente da tre variabili:
        • la frequenza di campionamento,
        • il bitdepth,
        • il numero di canali.
    • Il prodotto di queste tre variabili prende il nome di bitrate (numero di bit utilizzati nel campionamento di un secondo di suono)
    • La dimensione complessiva di un file audio (non compresso) è data da
    Bitrate x durata in sec del brano
  • 30. Facciamo quattro conti…. Se volessimo calcolare la quantità di memoria occupata da un file sonoro di 1 minuto in modalità stereofonica ( 2 canali ) registrato con frequenza di campionamento 44.100 KHz e con profondità di 16 bit (CD-quality) Profondità = 2 byte Frequenza di campionamento = 44.100 KhZ Numero di canali = 2 Bitrate= 172,27 KBps Quantità di memoria occupata per un minuto di musica = 172,27 KBps * 60 sec~10 MB
  • 31. Microfono,... (input) Scheda audio 10010101001.. Unità centrale Onda sonora Segnale elettrico analogico Segnale digitale Quindi ...
  • 32. Procedimento inverso Con il procedimento inverso, partendo cioè dal segnale digitale, sarà possibile ricostruire l’andamento dell’onda e riprodurla . Anche questa trasformazione viene compiuta dalla scheda audio . Le casse poi, che svolgono una funzione opposta a quella del microfono, trasformeranno il segnale elettrico in vibrazione da propagare nell’aria, cioè nel suono vero e proprio.
  • 33. In questo caso il segnale procederà per salti , in modo discontinuo , e quindi la rappresentazione non può essere fatta con una linea curva continua, ma mediante una spezzata . Più alta è la frequenza di campionamento che era stata scelta nell’acquisizione del suono, più breve è l’intervallo tra i punti campionati e più la linea spezzata, che rappresenta la ricostruzione della forma dell’onda, sarà simile a quella analogica di partenza e quindi la ricostruzione del suono fedele.
  • 34. Casse (output) Scheda audio 10010101001.. Unità centrale Onda sonora Onda ricostruita partendo dal segnale digitale Segnale digitale Viceversa...
  • 35. Il formato wave (Waveform audio format, .wav )
    • Il formato Wave è lo standard di Windows per file sonori.
    • E’ un formato compresso, con compressione piuttosto scarsa (1 minuto di suoni ~ 10 MB)
    • E’ uno più diffusi, anche per i barni musicali preseti nei classici CD Audio
    • Quando si registra con il “Registratore di suoni” Windows si crea un file di questo formato.
  • 36.
    • Il file audio non è ottenuto digitalizzando un’onda sonora, ma registrano le istruzioni per suonare le note, con i relativi tempi e con diversi strumenti musicali, come da spartito (1 minuto di musica ~10 Kb)
    • Per creare un file audio è sufficiente:
      • Collegare uno strumento musicale all’interfaccia MIDI,
      • Scegliere tra note musicali e strumenti preesistenti nella memoria del computer,
      • Comporre nuovi brani musicali utilizzando il computer per sommare diversi strumenti musicali.
    I file Midi ( M usical I nstrument D igital I nterface, .mid o .midi)
  • 37.
    • Una differenza importante tra i due formati è che in un file midi ci sono solo comandi, in un file wave ci sono suoni.
    • Si può quindi dire che la differenza fra un file midi e un corrispondente file audio Wave è paragonabile alla differenza fra lo spartito di un brano e un nastro contenente lo stesso brano registrato.
    • Un’altra essenziale differenza è che nei file wave (come nei disegni bitmap) non è possibile modificare un elemento singolo del suono; nei file midi (analogamente ai disegni vettoriali) ogni elemento è trattabile separatamente.
  • 38. Altri formati audio
  • 39.
    • ..Aiff, .aif : il formato AIFF (Audio Interchange File Format) di Apple è un formato analogo al wave.
    • .Au: molto diffuso e utilizzato principalmente su Unix. Il formato au, inoltre, gestisce anche modalità più efficienti di quantizzazione che permettono una riduzione della mole di dati anche di 4 volte il valore originale, al costo di una modesta perdita di qualità.
    • .ra (Real Audio) : formato compresso con algoritmo di tipo lossy, produce un notevole abbassamento delle dimensioni, ma provoca una perdita di qualità considerevole. Per riprodurre i suoni .ra è necessario il Real Player. E’ molto utilizzato in Internet perché consente l’ascolto in streaming (modalità di trasmissione di un flusso di dati (stream) da una sorgente che consente lo scaricamento ed il loro utilizzo in tempo reale, senza attendere che lo scaricamento sul computer sia terminato).
  • 40.
    • MPEG (Moving Picture Expert Group): nasce all'inizio degli anni '90 come standard per la diffusione del segnale audio digitale (oltre che quello video) di qualità paragonabile a quella del CD audio.
    • Analogamente a quanto fanno i sistemi di riduzione del rumore della famiglia Dolby, MPEG adotta tre sistemi di codifica differenti denominati layer1, layer2 e layer3 (quest'ultimo noto anche come MP3), di efficacia e complessità nell'ordine crescenti.
  • 41. Con MP3 è possibile comprimere i file audio (e video) senza alcuna rilevante perdita di qualità, arrivando addirittura a rapporti di compressione di 12:1. Ad esempio una canzone di 5 minuti che in formato Wave occupa circa 50MB può essere ridotta a soli 4 MB. L’MPEG elimina dai files audio determinate informazioni che non sono necessarie. Per far questo si basa sui risultati di ricerche di Psicoacustica, una disciplina scientifica che si occupa della percezione uditiva nell’uomo.
  • 42. Questi studi rivelano che il nostro orecchio, non è in grado di percepire frequenze “deboli” adiacenti a frequenze “forti”, in quanto queste ultime coprono le prime. Le informazioni inerenti le frequenze più deboli quindi, poiché queste ultime non sarebbero comunque percepibili dall’orecchio umano, vengono eliminate dall’MPEG durante la fase di compressione. In questo modo si ottiene una notevole riduzione del file audio in termini di spazio fisico occupato.