1. ENTROPIA
●
DEFINIZIONE E STORIA DELL'
ENTROPIA
●
EQUAZIONE DI BOLTZMANN PER L'
ENTROPIA
●
ORDINE E CAOS NELLA FILOSOFIA
●
ENTROPIA NELL' ARTE
●
ENTROPIA NELL' INFORMAZIONE
2. L' entropia è :
●
La grandezza che
esprime la misura del
disordine di un sistema
fisico qualsiasi.
●
Utilizzata nell' ambito
della Termodinamica.
E
STORIA . . .
La parola entropia :
● Deriva dalle parole greche en
(dentro) e trope
(rivolgimento).
●
E' stata introdotta per la
prima volta da Rudolf
Clausius.
DEFINIZIONE
. . .
3. EQUAZIONE DI BOLTZMANN PER L'
ENTROPIA
Secondo Boltzmann:
●
L' entropia non assume mai valore negativo.
●
L' entropia di due sotto sistemi indipendenti è la somma
dell' entropia dei singoli sistemi.
Boltzmann
dimostra l'
entropia del
macrostato A
con la formula:
S(A) = Kb ln
W(A)
4. ORDINE E CAOS NELLA
FILOSOFIA
L' Ordine :
●
Veniva associato a
tutta la meccanica.
●
Produce
organizzazione che
dà forma alla realtà
nuova.
Il Caos :
●
Veniva associato al
vuoto .
●
Era considerato
intrattabile.
●
Attrae i dati in un
Ordine e Caos sono due concetti
apparentemente
opposti in grado di coesistere.
5. L' ENTROPIA NELL' ARTE
Arnheim afferma che:
L' entropia si manifesta
attraverso ordine e caos.
L' uomo vede l' arte nella sua
globalità.
Anche in opere “caotiche”, l'
uomo ne coglie
una struttura ordinata.
DI conseguenza :
Esempio di visone
globale dell' arte :
6. L' ENTROPIA NELL' INFORMAZIONE
Nella teoria dell' informazione l' entropia di una
sorgente di messaggi è l' informazione media
contenuta in ogni messaggio emesso.
Shannon afferma che :
●
La formula per calcolare il livello di imprevedibilità
dell' informazione è uguale a quella usata da
Boltzmann per la termodinamica.
●
L' ignoranza equivale al disordine e all'
incertezza, l' informazione invece equivale all'
ordine.
7. Presentazione a cura degli
alunni :
Giorgio Scarpecci Luca
Melchiorri
Alex Frincu Jacopo
Salvatori