SlideShare a Scribd company logo
1 of 43
Caratteristiche dei dati ecologici
• I dati sono “sparsi”, cioè hanno molti valori nulli (a volte la
maggioranza!)
• La gran parte delle specie presenti è rara.
• I fattori ambientali che influenzano la distribuzione delle specie
sono molteplici e combinati fra loro,...
• ...ma quelli veramente importanti sono pochi (bassa
dimensionalità intrinseca).
• I dati contengono molto “rumore” sia per eventi stocastici e
contingenti, sia per l’errore di osservazione (anche in condizioni
ideali le repliche sono diverse!)
• L’informazione è spesso ridondante (la specie A è associata alla
specie B, ma questa può essere associata alla specie C, etc.):
questo è un problema, ma è anche ciò che rende possibile
interpretare i dati ecologici.
Gradienti ambientali e cenoclini
Scala dello studio
La cassetta degli attrezzi.
• Ordinamento (PCA, MDS, NMDS, CA, DCA, CCA, etc.)
• Classificazione (algoritmi gerarchici, k-means, reti
neuronali, etc.)
• Analisi spaziale (correlogrammi, variogrammi, kriging, co-
kriging, etc.)
• Analisi di serie (periodogrammi, runs tests, cross-
correlation, cross-association, etc.)
• Confronti fra dati multivariati (MRPP, test di Mantel,
INDVAL, etc.)
• Reti neurali
• ...
Tecniche di ordinamento
tre
specie
due
dimensioni
Analisi indiretta di gradiente
• Metodi basati su distanze
– Ordinamento polare (Bray-Curtis)
– Analisi delle Coordinate Principali (PCoA)
– Multidimensional Scaling Nonmetrico (NMDS)
• Metodi basati su autovalori/autovettori
– Modello lineare
• Analisi delle Componenti Principali (PCA)
– Modello unimodale
• Analisi delle Corrispondenze (CA)
• Analisi delle Corrispondenze Detrendizzata (DCA)
PCoA e NMDS
due
dimensioni
n
dimensioni
a b c d e f
a 0.000 0.317 0.405 0.982 0.923 0.829
b 0.317 0.000 0.184 0.617 0.695 0.534
c 0.405 0.184 0.000 0.571 0.614 0.773
d 0.982 0.617 0.571 0.000 0.092 0.489
e 0.923 0.695 0.614 0.092 0.000 0.391
f 0.829 0.534 0.773 0.489 0.391 0.000
a
b
c
d
e f
a
b
c
d e f
=

0
0.2
0.4
0.6
0.8
1
0 0.2 0.4 0.6 0.8 1
distanza fra campioni
distanza
euclidea
fra
punti
nell'ordinamento
0
0.2
0.4
0.6
0.8
1
0 0.2 0.4 0.6 0.8 1
distanza fra campioni
distanza
euclidea
fra
punti
nell'ordinamento
Stress elevato: distanze
nell’ordinamento diverse da
quelle originali, quindi bassa
qualità dell’ordinamento
Stress modesto: distanze
nell’ordinamento simili a quelle
originali, quindi alta qualità
dell’ordinamento
il centroide degli oggetti è nell'origine
del nuovo sistema di assi
media generale di A
media della j-ma riga di A
A  A  a
 a
 a


a
1
n
a



a
1
n
A 



matrice distanze trasformata
matrice distanze
trasformazione
A
0
5

6.5

7

11.5

5

0
2.5

4

7.5

6.5

2.5

0
6.5

10

7

4

6.5

0
4.5

11.5

7.5

10

4.5

0

















A
1

2




0
10
13
14
23
10
0
5
8
15
13
5
0
13
20
14
8
13
0
9
23
15
20
9
0

















definizione di una misura di distanza
(es. metrica di Manhattan)
  X  X 









matrice dei dati (2 variabili x 5 osservazioni)
X
5
4
9
10
8
14
15
8
23
9







Analisi delle Coordinate Principali.
matrice delle distanza dopo la seconda trasformazione
(semidefinita positiva [t'At0], ha un autovalore nullo)
A
6.8
0.4

0.6

1.8

4

0.4

2.4
1.2
1

2.2

0.6

1.2
5
2.2

3.4

1.8

1

2.2

3.6
1.4
4

2.2

3.4

1.4
8.2

















 reverse sort eigenvals A
( )
( )
( )
  13.5 6.9 3.6 2 3.6
 10


 
 autovalori
U  eigenvec A 

 
 autovettori
(primi due)
U
0.467

0.729

0.192

0.276
0.359

0.614
0.286
0.115

0.731
0.047








C   U 

 coordinate
principali
C
1.718

1.917

0.706

0.725
1.32

1.616
1.053
0.302

2.692
0.122








qualità della rappresentazione nel piano
definito dai primi due assi
 k max 
( )


 

 n 1

( ) max 
( )



 


0.267
 h n 1


E
D
C
B
A
0
2
4
6
8
10
12
14
16
0 2 4 6 8 10 12 14 16 18 20 22 24 26
Specie 1
Specie
2
A B C D E
A 0 10 13 14 23
B 10 0 5 8 15
C 13 5 0 13 20
D 14 8 13 0 9
E 23 15 20 9 0
6
4
E
D
C
B
A
0
2
4
6
8
10
12
14
16
0 2 4 6 8 10 12 14 16 18 20 22 24 26
Specie 1
Specie
2
A
B
C
D
E
-2.5
-2
-1.5
-1
-0.5
0
0.5
1
1.5
2
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.5 3
Pcoo1
PCoo2
PCooA
PCA
tre
dimensioni
due
dimensioni
Asse Maggiore
• Si minimizza la somma
dei quadrati delle
proiezioni dei punti
sull’Asse Maggiore
• Il calcolo implica:
– Estrazione di autovalori ed
autovettori dalla matrice di
covarianza
oppure
– Calcolo delle regressioni Y
su X e X su Y e della
bisettrice delle due rette
d1
d3
d2
d4
d5
d6
d7
d8
Asse maggiore
PCA
Perchè l’ordinamento?
"Ordination primarily endeavors to
represent sample and variable
relationships as faithfully as possible
in a low-dimensional space.“
Gauch (1982)
• La PCA è una rotazione rigida degli assi: non cambia le
posizioni degli oggetti nel loro spazio, ma ridefinisce il
sistema di coordinate.
• Nella PCA gli assi sono definiti in modo che le distanze di
ciascun oggetto dagli assi sia minimizzata (come nel caso
dell’asse maggiore).
• Gli assi sono combinazioni lineari delle variabili originali.
• In queste combinazioni lineari ogni variabile ha un peso
(“loading”) noto e interpretabile.
• La PCA accetta valori negativi per le variabili analizzate.
• La PCA consente di proiettare nuovi punti in un
ordinamento
• La PCA è adatta a trattare variabili dimensionalmente
eterogenee, che possono essere standardizzate in modo da
avere media nulla e varianza unitaria (in questo caso si lavora
sulla matrice di correlazione)
• Gli autovalori hanno un significato legato alla varianza
spiegata da ciascun asse e la loro somma corrisponde alla
somma delle varianze di tutte le variabili (o al numero di
variabili in caso di varianza unitaria).
• Gli assi sono linearmente indipendenti fra loro (ortogonali),
cioè la somma dei prodotti dei pesi delle variabili che
definiscono due diversi assi è nulla.
• La PCA ha seri problemi ad analizzare dati la cui distribuzione
non sia normale, ma soprattutto non può rendere conto
correttamente di relazioni fortemente non lineari o addirittura
non monotone.
1901 Pearson sviluppa la PCA come una tecnica
di regressione (quindi basata sulla
covarianza)
1933 Hotelling sviluppa la PCA come metodo per
analizzare e comprendere il significato delle
matrici di correlazione
1954 Goodall usa il termine “ordinamento”
(“ordination”) per la PCA
L LINV QUAD EXP
1 -5 10 25 0.01
2 -4 9 16 0.02
3 -3 8 9 0.05
4 -2 7 4 0.14
5 -1 6 1 0.37
6 0 5 0 1.00
7 1 4 1 2.72
8 2 3 4 7.39
9 3 2 9 20.09
10 4 1 16 54.60
11 5 0 25 148.41
PC1 PC2 PC3
L 0.575 -0.300 0.281
LINV -0.575 0.300 -0.281
QUAD 0.193 0.842 0.504
EXP 0.548 0.334 -0.767
EXP
QUAD
LINV
L
-0.4
-0.2
0
0.2
0.4
0.6
0.8
1
-0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8
PC1
PC2
autovalore
varianza
spiegata
PC1 2.658 66.5%
PC2 1.232 30.8%
PC3 0.110 2.8%
PC1 PC2 PC3
1 -1.763 2.214 0.348
2 -1.595 1.166 0.012
3 -1.384 0.310 -0.211
4 -1.129 -0.356 -0.320
5 -0.827 -0.830 -0.318
6 -0.477 -1.110 -0.209
7 -0.070 -1.192 -0.005
8 0.419 -1.059 0.261
9 1.054 -0.675 0.498
10 2.010 0.070 0.461
11 3.763 1.463 -0.517
11
10
9
8
7
6
5
1
2
3
4
-1.5
-1
-0.5
0
0.5
1
1.5
2
2.5
-3 -2 -1 0 1 2 3 4 5
PC1
PC2
CHL
DS
SAL
PO4
NH3
NO2
NO3
-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
0.8
-0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8
PC1 (63.3%)
PC2
(20.2%)
CHL
DS
SAL
PO4
NH3
NO2
NO3
-1
-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
0.8
-1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8
PC1 (63.3%)
PC3
(16.5%)
r
p
2

Y
6

5
4
6

5
4

6

5

4
6

5

4

6
5
4
6
5
4

6
5

4
6
5

4












Coordinate dei vertici del parallelepipedo dopo la rotazione che rende
i suoi lati paralleli agli assi cartesiani [vedi (b)]
Y U X


U U

1
0
0
0
1
0
0
0
1











U
0.578
0.577

0.577
0.707

1.816
 10


0.707
0.407
0.817
0.409











La matrice degli autovettori è ortogonale: in altre parole,
gli autovettori (righe) sono linearmente indipendenti fra
loro.
Quindi:
U  eigenvec R  

 


287.654
0
0
0
199.709
0
0
0
127.988











matrice degli autovalori (in ordine decrescente)
  reverse sort eigenvals R
( )
( )
( )

R  X  X 



R
205.209
65.206

3.741
65.206

207.892
46.059

3.741
46.059

202.251











matrice SSCP (sum of squares and
cross products), cioè:
R X X


X
4.04

7.07
3.26
8.66

1.41
0
1.73
7.07
4.89

2.88

1.41
8.16

2.88
1.41

8.16
1.73

7.07

4.89
8.66
1.41

0
4.04
7.07

3.26












coordinate dei vertici di un
parallepipedo (il baricentro coincide
con l'origine degli assi)
[vedi (a)]
Rotazione rigida di un insieme di punti.
Y
( )
  
Y
( )
  
 Y
( )
  





X
( )
  
X
( )
  
 X
( )
  





i 1 3


X
2
1
2
1
4
1.5
2
1.5
3









j 1 3


i i
 eigenvals X
( )
i


2.466
0
0
0
0.432
0
0
0
6.102









i
i i

 9

i
X
i i

 9

U
i j

eigenvec X  j j


 i

U
0.44
0.758

0.482
0.774

0.048

0.631
0.455
0.651
0.608









j
U
1 j

U
2 j


 0

j
U
1 j

U
3 j


 0

j
U
2 j

U
3 j


 0

XU=U XU-U=0
U 

1.085
1.869

1.188
0.334

0.021

0.273
2.777
3.969
3.71









X U

1.085
1.869

1.188
0.334

0.021

0.273
2.777
3.969
3.71









X U
 U 


0
0
0
0
0
0
0
0
0









Analisi delle Componenti Principali.
dati bruti (7 variabili [righe]
per 6 oggettii [colonne])
x
632.53
26.919
79.126
41.908
24.552
0.737
1.289
267.5
9.325
63.657
13.137
29.273
0.702
13.875
310.549
13.07
48.223
20.448
28.43
0.644
1.59
172.835
5.647
213.082
8.48
31.266
0.791
2.528
211.882
6.338
69.371
7.474
33.766
2.452
1.253
120.379
3.92
44.174
10.821
31.879
0.852
1.858























n cols x
( )
 p rows x
( )

i 1 p

 j 1 n

 k 1 p


m
1
n
x 



s stdev x
 





y 
x  m

s

dati centrati e
standardizzati
(sulla riga)
y
2.079
2.069
0.123

2.091
1.806

0.458

0.536

0.111

0.199

0.39

0.329

0.2

0.512

2.226
0.148
0.284
0.657

0.286
0.487

0.603

0.47

0.678

0.673

2.188
0.72

0.478
0.373

0.264

0.444

0.584

0.292

0.805

1.328
2.224
0.544

0.993

0.896

0.726

0.523

0.686
0.278

0.411
























dati centrati e
standardizzati
(sulla riga)
y
2.079
2.069
0.123

2.091
1.806

0.458

0.536

0.111

0.199

0.39

0.329

0.2

0.512

2.226
0.148
0.284
0.657

0.286
0.487

0.603

0.47

0.678

0.673

2.188
0.72

0.478
0.373

0.264

0.444

0.584

0.292

0.805

1.328
2.224
0.544

0.993

0.896

0.726

0.523

0.686
0.278

0.411
























S
1
n
y
 y


S
1
0.995
0.157

0.965
0.9

0.24

0.1

0.995
1
0.169

0.983
0.925

0.303

0.137

0.157

0.169

1
0.213

0.13
0.102

0.102

0.965
0.983
0.213

1
0.937

0.389

0.191

0.9

0.925

0.13
0.937

1
0.635
0.063

0.24

0.303

0.102

0.389

0.635
1
0.268

0.1

0.137

0.102

0.191

0.063

0.268

1























matrice di correlazione
  reverse sort eigenvals S
( )
( )
( )

matrice autovalori
 
 7


4.086
0
0
0
0
0
0
0
1.306
0
0
0
0
0
0
0
1.065
0
0
0
0
0
0
0
0.534
0
0
0
0
0
0
0
8.167 10


0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0























N.B. Se il numero delle variabili (p) è
maggiore del numero degli oggetti (n), la
matrice avrà p-(n-1) autovalori nulli
[nel caso in esame, 7-(6-1)=7-5=2
j 1 5

 U  eigenvec S  

 

matrice autovettori
(saturazioni o loadings
delle variabili, in riga),
norma = 1
U 
 

1
1
1
1
1

U
0.475

0.484

0.096
0.488

0.484
0.24
0.033
0.145

0.135

0.128
0.123

0.169

0.619

0.719
0.016

1.984 10


0.894
4.606 10


0.042

0.238

0.377

0.312
0.188
0.409
0.028

0.041
0.618
0.562
0.073

0.254

0.064
0.812
0.495
0.05

0.138























(possono essere
rappresentati come un
istogramma per riga [cioè
per PC] o come scatterplot)
U  U 
 
S 


U
0.959

0.978

0.194
0.987

0.979
0.484
0.067
0.165

0.154

0.147
0.14

0.193

0.708

0.822
0.016

2.048 10


0.923
4.754 10


0.044

0.246

0.389

0.228
0.138
0.299
0.02

0.03
0.452
0.411
6.614
 10


0.023

5.75 10


0.073
0.045
4.481
 10


0.012

























correlazioni fra variabili (righe) e PCs
F y U


coordinate o scores
oggetti (righe)
F
8.131

0.255
1.629

2.714
4.076
2.715
0.743

2.269
0.07

0.593
2.044

4.226
 10


0.266
1.091

0.254

2.199
0.66

0.46

0.198
0.515
0.609

0.158
0.568
0.83

5.868 10


1.157 10


0.015

5.186
 10


1.656
 10


0.011

























proiezione sulle
prime due
componenti
principali


proiezione sulla
prima e terza
componente
principale




 
punti-descrittore (norma=1) e cerchio
del contributo equilibrato agli assi
(dimensioni rappresentazione/n.
descrittori=2/p): 1.o e 2.o asse.




 
idem, per 1.a e 3.a CP
Le quattro diverse versioni dell'Analisi delle Compenenti Principali.
X
2
4
12
10
33
13
42
30
55
17
60
42
62
27
65
25
92
55
99
43






 dati bruti (2 variabili per 10 osservazioni)
X
1
n
X 


 X
52.2
26.6






 medie
deviazioni standard
X
1
n
X  X

 



Dati
centrati
Dati standardizzati
SiSi SiNo
NoSi NoNo
x’=(x-m)/s x’=x-m
x’=x/s x’=x
Soluzione #1: dati non centrati e non standardizzati [cfr. fig. (a), assi interi]
R
1
n
X
 X

 R
3596
1788.8
1788.8
946.6









reverse sort eigenvals R
 
 
 
 
4497.201
0
0
45.399







U

eigenvec R 


 
 U
0.893
0.45
0.45

0.893







L X U


L
3.586
15.216
35.32
51.007
56.767
72.481
67.518
69.297
106.908
107.76
2.672
3.532
3.238

7.895
9.564

10.513
3.783

6.919

7.725
6.141




































Soluzione #2: dati centrati e non standardizzati [cfr. fig. (a), assi tratteggiati]
X

X  X


R
1
n
X
 X

 R
871.16
400.28
400.28
239.04









reverse sort eigenvals R
 
 
 
 
1.065 10

0
0
45.082







U

eigenvec R 


 
 U
0.9
0.436
0.436

0.9







L X U


L
55.031

43.415

23.209

7.697

1.666

13.735
8.994
10.821
48.201
49.268
1.552
2.591
3.867

7.508
9.86

10.457
3.913

7.021

8.202
5.649




































 
Soluzione #3: dati non centrati e standardizzati [cfr. fig. (b), assi interi]
Z 
X 
X

R
1
n
Z
 Z

 R
4.128
3.92
3.92
3.96









reverse sort eigenvals R
 
 
 
 
7.965
0
0
0.123







U

eigenvec R 


 
 U
0.715
0.699
0.699

0.715







L Z U


L
0.229
0.743
1.387
2.374
2.101
3.353
2.723
2.705
4.716
4.342
0.137
0.178
0.181

0.391
0.518

0.519
0.221

0.385

0.362
0.359





































Soluzione #4: dati centrati e standardizzati [cfr. fig. (b), assi tratteggiati]
Z

X  X

X

R
1
n
Z
 Z

 R
1
0.877
0.877
1









reverse sort eigenvals R
 
 
 
 
1.877
0
0
0.123







U

eigenvec R 


 
 U
0.707
0.707
0.707

0.707







L Z U


L
2.236

1.722

1.082

0.089

0.372

0.891
0.253
0.233
2.252
1.871
0.169
0.204
0.162

0.4
0.506

0.517
0.216

0.38

0.345
0.371




































 
CA
Analisi diretta di gradiente
• Modello lineare
– Analisi di Ridondanza (RDA)
• Modello unimodale
– Analisi Canonica delle Corrispondenze
(CCA)
– Analisi Canonica delle Corrispondenze
Detrendizzata (DCCA)
CCA
Ordinamento_05.ppt

More Related Content

Recently uploaded

Questa è una presentazione di Scienze riguardo le varietà allotropiche del ca...
Questa è una presentazione di Scienze riguardo le varietà allotropiche del ca...Questa è una presentazione di Scienze riguardo le varietà allotropiche del ca...
Questa è una presentazione di Scienze riguardo le varietà allotropiche del ca...nicolofusco13
 
Amburgo la città più smart della Germania
Amburgo la città più smart della GermaniaAmburgo la città più smart della Germania
Amburgo la città più smart della Germaniasofiaganzaroli9
 
Questa è una presentazione di Arte riguardo Cimabue
Questa è una presentazione di Arte riguardo CimabueQuesta è una presentazione di Arte riguardo Cimabue
Questa è una presentazione di Arte riguardo Cimabuenicolofusco13
 
TeccarelliLorenzo-testoargomentativo.docx
TeccarelliLorenzo-testoargomentativo.docxTeccarelliLorenzo-testoargomentativo.docx
TeccarelliLorenzo-testoargomentativo.docxteccarellilorenzo
 
Aurora Palestinipresentazione000001.pdtf
Aurora Palestinipresentazione000001.pdtfAurora Palestinipresentazione000001.pdtf
Aurora Palestinipresentazione000001.pdtfpalestiniaurora
 
presentazione di michela di SteveJobs.pdf
presentazione di michela di SteveJobs.pdfpresentazione di michela di SteveJobs.pdf
presentazione di michela di SteveJobs.pdfmichelacaporale12345
 
a scuola di biblioVerifica: come utilizzare CHATBOT secondo UNESCO
a scuola di biblioVerifica: come utilizzare CHATBOT secondo UNESCOa scuola di biblioVerifica: come utilizzare CHATBOT secondo UNESCO
a scuola di biblioVerifica: come utilizzare CHATBOT secondo UNESCODamiano Orru
 
Powerpoint tesi di laurea
Powerpoint tesi di laurea Powerpoint tesi di laurea
Powerpoint tesi di laurea Valentina Ottini
 
presentazione di Storia di michela .pptx
presentazione di Storia di michela .pptxpresentazione di Storia di michela .pptx
presentazione di Storia di michela .pptxmichelacaporale12345
 
PLATONEpresentazionecaricatasu teams-pdf.pdf
PLATONEpresentazionecaricatasu teams-pdf.pdfPLATONEpresentazionecaricatasu teams-pdf.pdf
PLATONEpresentazionecaricatasu teams-pdf.pdfpalestiniaurora
 
presentazione di arte di michela caporale.pptx
presentazione di arte di michela caporale.pptxpresentazione di arte di michela caporale.pptx
presentazione di arte di michela caporale.pptxmichelacaporale12345
 
allotropie del carbonio michela caporale .pptx
allotropie del carbonio michela caporale .pptxallotropie del carbonio michela caporale .pptx
allotropie del carbonio michela caporale .pptxmichelacaporale12345
 
No. Nessuno strumento automatico verifica o ripara l’accessibilità di un sito...
No. Nessuno strumento automatico verifica o ripara l’accessibilità di un sito...No. Nessuno strumento automatico verifica o ripara l’accessibilità di un sito...
No. Nessuno strumento automatico verifica o ripara l’accessibilità di un sito...Roberto Scano
 
Questo è una presentazione di storia riguardo la scienza e la magia
Questo è una presentazione di storia riguardo la scienza e la magiaQuesto è una presentazione di storia riguardo la scienza e la magia
Questo è una presentazione di storia riguardo la scienza e la magianicolofusco13
 
ed civica ambiente presentazione (1).pptx
ed civica ambiente presentazione (1).pptxed civica ambiente presentazione (1).pptx
ed civica ambiente presentazione (1).pptxmichelacaporale12345
 
MyEdu Club: il magazine di MyEdu dedicato ai genitori
MyEdu Club: il magazine di MyEdu dedicato ai genitoriMyEdu Club: il magazine di MyEdu dedicato ai genitori
MyEdu Club: il magazine di MyEdu dedicato ai genitorimarketing983206
 
Questa è una presentazione di Educazione Civica riguardo la libertà di inizia...
Questa è una presentazione di Educazione Civica riguardo la libertà di inizia...Questa è una presentazione di Educazione Civica riguardo la libertà di inizia...
Questa è una presentazione di Educazione Civica riguardo la libertà di inizia...nicolofusco13
 
Cap16_Sandro_Botticellipresentazione.pptx
Cap16_Sandro_Botticellipresentazione.pptxCap16_Sandro_Botticellipresentazione.pptx
Cap16_Sandro_Botticellipresentazione.pptxpalestiniaurora
 
TeccarelliLorenzo-Leformeallotropichedelcarbonio.pptx
TeccarelliLorenzo-Leformeallotropichedelcarbonio.pptxTeccarelliLorenzo-Leformeallotropichedelcarbonio.pptx
TeccarelliLorenzo-Leformeallotropichedelcarbonio.pptxteccarellilorenzo
 
CONCEZIONE DELL'ARTEasiapanciapresentazione.pdf
CONCEZIONE DELL'ARTEasiapanciapresentazione.pdfCONCEZIONE DELL'ARTEasiapanciapresentazione.pdf
CONCEZIONE DELL'ARTEasiapanciapresentazione.pdfpalestiniaurora
 

Recently uploaded (20)

Questa è una presentazione di Scienze riguardo le varietà allotropiche del ca...
Questa è una presentazione di Scienze riguardo le varietà allotropiche del ca...Questa è una presentazione di Scienze riguardo le varietà allotropiche del ca...
Questa è una presentazione di Scienze riguardo le varietà allotropiche del ca...
 
Amburgo la città più smart della Germania
Amburgo la città più smart della GermaniaAmburgo la città più smart della Germania
Amburgo la città più smart della Germania
 
Questa è una presentazione di Arte riguardo Cimabue
Questa è una presentazione di Arte riguardo CimabueQuesta è una presentazione di Arte riguardo Cimabue
Questa è una presentazione di Arte riguardo Cimabue
 
TeccarelliLorenzo-testoargomentativo.docx
TeccarelliLorenzo-testoargomentativo.docxTeccarelliLorenzo-testoargomentativo.docx
TeccarelliLorenzo-testoargomentativo.docx
 
Aurora Palestinipresentazione000001.pdtf
Aurora Palestinipresentazione000001.pdtfAurora Palestinipresentazione000001.pdtf
Aurora Palestinipresentazione000001.pdtf
 
presentazione di michela di SteveJobs.pdf
presentazione di michela di SteveJobs.pdfpresentazione di michela di SteveJobs.pdf
presentazione di michela di SteveJobs.pdf
 
a scuola di biblioVerifica: come utilizzare CHATBOT secondo UNESCO
a scuola di biblioVerifica: come utilizzare CHATBOT secondo UNESCOa scuola di biblioVerifica: come utilizzare CHATBOT secondo UNESCO
a scuola di biblioVerifica: come utilizzare CHATBOT secondo UNESCO
 
Powerpoint tesi di laurea
Powerpoint tesi di laurea Powerpoint tesi di laurea
Powerpoint tesi di laurea
 
presentazione di Storia di michela .pptx
presentazione di Storia di michela .pptxpresentazione di Storia di michela .pptx
presentazione di Storia di michela .pptx
 
PLATONEpresentazionecaricatasu teams-pdf.pdf
PLATONEpresentazionecaricatasu teams-pdf.pdfPLATONEpresentazionecaricatasu teams-pdf.pdf
PLATONEpresentazionecaricatasu teams-pdf.pdf
 
presentazione di arte di michela caporale.pptx
presentazione di arte di michela caporale.pptxpresentazione di arte di michela caporale.pptx
presentazione di arte di michela caporale.pptx
 
allotropie del carbonio michela caporale .pptx
allotropie del carbonio michela caporale .pptxallotropie del carbonio michela caporale .pptx
allotropie del carbonio michela caporale .pptx
 
No. Nessuno strumento automatico verifica o ripara l’accessibilità di un sito...
No. Nessuno strumento automatico verifica o ripara l’accessibilità di un sito...No. Nessuno strumento automatico verifica o ripara l’accessibilità di un sito...
No. Nessuno strumento automatico verifica o ripara l’accessibilità di un sito...
 
Questo è una presentazione di storia riguardo la scienza e la magia
Questo è una presentazione di storia riguardo la scienza e la magiaQuesto è una presentazione di storia riguardo la scienza e la magia
Questo è una presentazione di storia riguardo la scienza e la magia
 
ed civica ambiente presentazione (1).pptx
ed civica ambiente presentazione (1).pptxed civica ambiente presentazione (1).pptx
ed civica ambiente presentazione (1).pptx
 
MyEdu Club: il magazine di MyEdu dedicato ai genitori
MyEdu Club: il magazine di MyEdu dedicato ai genitoriMyEdu Club: il magazine di MyEdu dedicato ai genitori
MyEdu Club: il magazine di MyEdu dedicato ai genitori
 
Questa è una presentazione di Educazione Civica riguardo la libertà di inizia...
Questa è una presentazione di Educazione Civica riguardo la libertà di inizia...Questa è una presentazione di Educazione Civica riguardo la libertà di inizia...
Questa è una presentazione di Educazione Civica riguardo la libertà di inizia...
 
Cap16_Sandro_Botticellipresentazione.pptx
Cap16_Sandro_Botticellipresentazione.pptxCap16_Sandro_Botticellipresentazione.pptx
Cap16_Sandro_Botticellipresentazione.pptx
 
TeccarelliLorenzo-Leformeallotropichedelcarbonio.pptx
TeccarelliLorenzo-Leformeallotropichedelcarbonio.pptxTeccarelliLorenzo-Leformeallotropichedelcarbonio.pptx
TeccarelliLorenzo-Leformeallotropichedelcarbonio.pptx
 
CONCEZIONE DELL'ARTEasiapanciapresentazione.pdf
CONCEZIONE DELL'ARTEasiapanciapresentazione.pdfCONCEZIONE DELL'ARTEasiapanciapresentazione.pdf
CONCEZIONE DELL'ARTEasiapanciapresentazione.pdf
 

Featured

2024 State of Marketing Report – by Hubspot
2024 State of Marketing Report – by Hubspot2024 State of Marketing Report – by Hubspot
2024 State of Marketing Report – by HubspotMarius Sescu
 
Everything You Need To Know About ChatGPT
Everything You Need To Know About ChatGPTEverything You Need To Know About ChatGPT
Everything You Need To Know About ChatGPTExpeed Software
 
Product Design Trends in 2024 | Teenage Engineerings
Product Design Trends in 2024 | Teenage EngineeringsProduct Design Trends in 2024 | Teenage Engineerings
Product Design Trends in 2024 | Teenage EngineeringsPixeldarts
 
How Race, Age and Gender Shape Attitudes Towards Mental Health
How Race, Age and Gender Shape Attitudes Towards Mental HealthHow Race, Age and Gender Shape Attitudes Towards Mental Health
How Race, Age and Gender Shape Attitudes Towards Mental HealthThinkNow
 
AI Trends in Creative Operations 2024 by Artwork Flow.pdf
AI Trends in Creative Operations 2024 by Artwork Flow.pdfAI Trends in Creative Operations 2024 by Artwork Flow.pdf
AI Trends in Creative Operations 2024 by Artwork Flow.pdfmarketingartwork
 
PEPSICO Presentation to CAGNY Conference Feb 2024
PEPSICO Presentation to CAGNY Conference Feb 2024PEPSICO Presentation to CAGNY Conference Feb 2024
PEPSICO Presentation to CAGNY Conference Feb 2024Neil Kimberley
 
Content Methodology: A Best Practices Report (Webinar)
Content Methodology: A Best Practices Report (Webinar)Content Methodology: A Best Practices Report (Webinar)
Content Methodology: A Best Practices Report (Webinar)contently
 
How to Prepare For a Successful Job Search for 2024
How to Prepare For a Successful Job Search for 2024How to Prepare For a Successful Job Search for 2024
How to Prepare For a Successful Job Search for 2024Albert Qian
 
Social Media Marketing Trends 2024 // The Global Indie Insights
Social Media Marketing Trends 2024 // The Global Indie InsightsSocial Media Marketing Trends 2024 // The Global Indie Insights
Social Media Marketing Trends 2024 // The Global Indie InsightsKurio // The Social Media Age(ncy)
 
Trends In Paid Search: Navigating The Digital Landscape In 2024
Trends In Paid Search: Navigating The Digital Landscape In 2024Trends In Paid Search: Navigating The Digital Landscape In 2024
Trends In Paid Search: Navigating The Digital Landscape In 2024Search Engine Journal
 
5 Public speaking tips from TED - Visualized summary
5 Public speaking tips from TED - Visualized summary5 Public speaking tips from TED - Visualized summary
5 Public speaking tips from TED - Visualized summarySpeakerHub
 
ChatGPT and the Future of Work - Clark Boyd
ChatGPT and the Future of Work - Clark Boyd ChatGPT and the Future of Work - Clark Boyd
ChatGPT and the Future of Work - Clark Boyd Clark Boyd
 
Getting into the tech field. what next
Getting into the tech field. what next Getting into the tech field. what next
Getting into the tech field. what next Tessa Mero
 
Google's Just Not That Into You: Understanding Core Updates & Search Intent
Google's Just Not That Into You: Understanding Core Updates & Search IntentGoogle's Just Not That Into You: Understanding Core Updates & Search Intent
Google's Just Not That Into You: Understanding Core Updates & Search IntentLily Ray
 
Time Management & Productivity - Best Practices
Time Management & Productivity -  Best PracticesTime Management & Productivity -  Best Practices
Time Management & Productivity - Best PracticesVit Horky
 
The six step guide to practical project management
The six step guide to practical project managementThe six step guide to practical project management
The six step guide to practical project managementMindGenius
 
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...RachelPearson36
 

Featured (20)

2024 State of Marketing Report – by Hubspot
2024 State of Marketing Report – by Hubspot2024 State of Marketing Report – by Hubspot
2024 State of Marketing Report – by Hubspot
 
Everything You Need To Know About ChatGPT
Everything You Need To Know About ChatGPTEverything You Need To Know About ChatGPT
Everything You Need To Know About ChatGPT
 
Product Design Trends in 2024 | Teenage Engineerings
Product Design Trends in 2024 | Teenage EngineeringsProduct Design Trends in 2024 | Teenage Engineerings
Product Design Trends in 2024 | Teenage Engineerings
 
How Race, Age and Gender Shape Attitudes Towards Mental Health
How Race, Age and Gender Shape Attitudes Towards Mental HealthHow Race, Age and Gender Shape Attitudes Towards Mental Health
How Race, Age and Gender Shape Attitudes Towards Mental Health
 
AI Trends in Creative Operations 2024 by Artwork Flow.pdf
AI Trends in Creative Operations 2024 by Artwork Flow.pdfAI Trends in Creative Operations 2024 by Artwork Flow.pdf
AI Trends in Creative Operations 2024 by Artwork Flow.pdf
 
Skeleton Culture Code
Skeleton Culture CodeSkeleton Culture Code
Skeleton Culture Code
 
PEPSICO Presentation to CAGNY Conference Feb 2024
PEPSICO Presentation to CAGNY Conference Feb 2024PEPSICO Presentation to CAGNY Conference Feb 2024
PEPSICO Presentation to CAGNY Conference Feb 2024
 
Content Methodology: A Best Practices Report (Webinar)
Content Methodology: A Best Practices Report (Webinar)Content Methodology: A Best Practices Report (Webinar)
Content Methodology: A Best Practices Report (Webinar)
 
How to Prepare For a Successful Job Search for 2024
How to Prepare For a Successful Job Search for 2024How to Prepare For a Successful Job Search for 2024
How to Prepare For a Successful Job Search for 2024
 
Social Media Marketing Trends 2024 // The Global Indie Insights
Social Media Marketing Trends 2024 // The Global Indie InsightsSocial Media Marketing Trends 2024 // The Global Indie Insights
Social Media Marketing Trends 2024 // The Global Indie Insights
 
Trends In Paid Search: Navigating The Digital Landscape In 2024
Trends In Paid Search: Navigating The Digital Landscape In 2024Trends In Paid Search: Navigating The Digital Landscape In 2024
Trends In Paid Search: Navigating The Digital Landscape In 2024
 
5 Public speaking tips from TED - Visualized summary
5 Public speaking tips from TED - Visualized summary5 Public speaking tips from TED - Visualized summary
5 Public speaking tips from TED - Visualized summary
 
ChatGPT and the Future of Work - Clark Boyd
ChatGPT and the Future of Work - Clark Boyd ChatGPT and the Future of Work - Clark Boyd
ChatGPT and the Future of Work - Clark Boyd
 
Getting into the tech field. what next
Getting into the tech field. what next Getting into the tech field. what next
Getting into the tech field. what next
 
Google's Just Not That Into You: Understanding Core Updates & Search Intent
Google's Just Not That Into You: Understanding Core Updates & Search IntentGoogle's Just Not That Into You: Understanding Core Updates & Search Intent
Google's Just Not That Into You: Understanding Core Updates & Search Intent
 
How to have difficult conversations
How to have difficult conversations How to have difficult conversations
How to have difficult conversations
 
Introduction to Data Science
Introduction to Data ScienceIntroduction to Data Science
Introduction to Data Science
 
Time Management & Productivity - Best Practices
Time Management & Productivity -  Best PracticesTime Management & Productivity -  Best Practices
Time Management & Productivity - Best Practices
 
The six step guide to practical project management
The six step guide to practical project managementThe six step guide to practical project management
The six step guide to practical project management
 
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...
 

Ordinamento_05.ppt

  • 1. Caratteristiche dei dati ecologici • I dati sono “sparsi”, cioè hanno molti valori nulli (a volte la maggioranza!) • La gran parte delle specie presenti è rara. • I fattori ambientali che influenzano la distribuzione delle specie sono molteplici e combinati fra loro,... • ...ma quelli veramente importanti sono pochi (bassa dimensionalità intrinseca). • I dati contengono molto “rumore” sia per eventi stocastici e contingenti, sia per l’errore di osservazione (anche in condizioni ideali le repliche sono diverse!) • L’informazione è spesso ridondante (la specie A è associata alla specie B, ma questa può essere associata alla specie C, etc.): questo è un problema, ma è anche ciò che rende possibile interpretare i dati ecologici.
  • 2. Gradienti ambientali e cenoclini Scala dello studio
  • 3. La cassetta degli attrezzi. • Ordinamento (PCA, MDS, NMDS, CA, DCA, CCA, etc.) • Classificazione (algoritmi gerarchici, k-means, reti neuronali, etc.) • Analisi spaziale (correlogrammi, variogrammi, kriging, co- kriging, etc.) • Analisi di serie (periodogrammi, runs tests, cross- correlation, cross-association, etc.) • Confronti fra dati multivariati (MRPP, test di Mantel, INDVAL, etc.) • Reti neurali • ...
  • 5. Analisi indiretta di gradiente • Metodi basati su distanze – Ordinamento polare (Bray-Curtis) – Analisi delle Coordinate Principali (PCoA) – Multidimensional Scaling Nonmetrico (NMDS) • Metodi basati su autovalori/autovettori – Modello lineare • Analisi delle Componenti Principali (PCA) – Modello unimodale • Analisi delle Corrispondenze (CA) • Analisi delle Corrispondenze Detrendizzata (DCA)
  • 6. PCoA e NMDS due dimensioni n dimensioni a b c d e f a 0.000 0.317 0.405 0.982 0.923 0.829 b 0.317 0.000 0.184 0.617 0.695 0.534 c 0.405 0.184 0.000 0.571 0.614 0.773 d 0.982 0.617 0.571 0.000 0.092 0.489 e 0.923 0.695 0.614 0.092 0.000 0.391 f 0.829 0.534 0.773 0.489 0.391 0.000 a b c d e f a b c d e f = 
  • 7. 0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1 distanza fra campioni distanza euclidea fra punti nell'ordinamento 0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1 distanza fra campioni distanza euclidea fra punti nell'ordinamento Stress elevato: distanze nell’ordinamento diverse da quelle originali, quindi bassa qualità dell’ordinamento Stress modesto: distanze nell’ordinamento simili a quelle originali, quindi alta qualità dell’ordinamento
  • 8. il centroide degli oggetti è nell'origine del nuovo sistema di assi media generale di A media della j-ma riga di A A  A  a  a  a   a 1 n a    a 1 n A     matrice distanze trasformata matrice distanze trasformazione A 0 5  6.5  7  11.5  5  0 2.5  4  7.5  6.5  2.5  0 6.5  10  7  4  6.5  0 4.5  11.5  7.5  10  4.5  0                  A 1  2     0 10 13 14 23 10 0 5 8 15 13 5 0 13 20 14 8 13 0 9 23 15 20 9 0                  definizione di una misura di distanza (es. metrica di Manhattan)   X  X           matrice dei dati (2 variabili x 5 osservazioni) X 5 4 9 10 8 14 15 8 23 9        Analisi delle Coordinate Principali.
  • 9. matrice delle distanza dopo la seconda trasformazione (semidefinita positiva [t'At0], ha un autovalore nullo) A 6.8 0.4  0.6  1.8  4  0.4  2.4 1.2 1  2.2  0.6  1.2 5 2.2  3.4  1.8  1  2.2  3.6 1.4 4  2.2  3.4  1.4 8.2                   reverse sort eigenvals A ( ) ( ) ( )   13.5 6.9 3.6 2 3.6  10      autovalori U  eigenvec A      autovettori (primi due) U 0.467  0.729  0.192  0.276 0.359  0.614 0.286 0.115  0.731 0.047         C   U    coordinate principali C 1.718  1.917  0.706  0.725 1.32  1.616 1.053 0.302  2.692 0.122         qualità della rappresentazione nel piano definito dai primi due assi  k max  ( )       n 1  ( ) max  ( )        0.267  h n 1  
  • 10. E D C B A 0 2 4 6 8 10 12 14 16 0 2 4 6 8 10 12 14 16 18 20 22 24 26 Specie 1 Specie 2 A B C D E A 0 10 13 14 23 B 10 0 5 8 15 C 13 5 0 13 20 D 14 8 13 0 9 E 23 15 20 9 0 6 4
  • 11. E D C B A 0 2 4 6 8 10 12 14 16 0 2 4 6 8 10 12 14 16 18 20 22 24 26 Specie 1 Specie 2 A B C D E -2.5 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.5 3 Pcoo1 PCoo2 PCooA
  • 12. PCA
  • 13.
  • 14.
  • 16. Asse Maggiore • Si minimizza la somma dei quadrati delle proiezioni dei punti sull’Asse Maggiore • Il calcolo implica: – Estrazione di autovalori ed autovettori dalla matrice di covarianza oppure – Calcolo delle regressioni Y su X e X su Y e della bisettrice delle due rette d1 d3 d2 d4 d5 d6 d7 d8 Asse maggiore
  • 17. PCA
  • 18. Perchè l’ordinamento? "Ordination primarily endeavors to represent sample and variable relationships as faithfully as possible in a low-dimensional space.“ Gauch (1982)
  • 19. • La PCA è una rotazione rigida degli assi: non cambia le posizioni degli oggetti nel loro spazio, ma ridefinisce il sistema di coordinate. • Nella PCA gli assi sono definiti in modo che le distanze di ciascun oggetto dagli assi sia minimizzata (come nel caso dell’asse maggiore). • Gli assi sono combinazioni lineari delle variabili originali. • In queste combinazioni lineari ogni variabile ha un peso (“loading”) noto e interpretabile. • La PCA accetta valori negativi per le variabili analizzate. • La PCA consente di proiettare nuovi punti in un ordinamento
  • 20. • La PCA è adatta a trattare variabili dimensionalmente eterogenee, che possono essere standardizzate in modo da avere media nulla e varianza unitaria (in questo caso si lavora sulla matrice di correlazione) • Gli autovalori hanno un significato legato alla varianza spiegata da ciascun asse e la loro somma corrisponde alla somma delle varianze di tutte le variabili (o al numero di variabili in caso di varianza unitaria). • Gli assi sono linearmente indipendenti fra loro (ortogonali), cioè la somma dei prodotti dei pesi delle variabili che definiscono due diversi assi è nulla. • La PCA ha seri problemi ad analizzare dati la cui distribuzione non sia normale, ma soprattutto non può rendere conto correttamente di relazioni fortemente non lineari o addirittura non monotone.
  • 21. 1901 Pearson sviluppa la PCA come una tecnica di regressione (quindi basata sulla covarianza) 1933 Hotelling sviluppa la PCA come metodo per analizzare e comprendere il significato delle matrici di correlazione 1954 Goodall usa il termine “ordinamento” (“ordination”) per la PCA
  • 22. L LINV QUAD EXP 1 -5 10 25 0.01 2 -4 9 16 0.02 3 -3 8 9 0.05 4 -2 7 4 0.14 5 -1 6 1 0.37 6 0 5 0 1.00 7 1 4 1 2.72 8 2 3 4 7.39 9 3 2 9 20.09 10 4 1 16 54.60 11 5 0 25 148.41
  • 23. PC1 PC2 PC3 L 0.575 -0.300 0.281 LINV -0.575 0.300 -0.281 QUAD 0.193 0.842 0.504 EXP 0.548 0.334 -0.767 EXP QUAD LINV L -0.4 -0.2 0 0.2 0.4 0.6 0.8 1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 PC1 PC2 autovalore varianza spiegata PC1 2.658 66.5% PC2 1.232 30.8% PC3 0.110 2.8%
  • 24. PC1 PC2 PC3 1 -1.763 2.214 0.348 2 -1.595 1.166 0.012 3 -1.384 0.310 -0.211 4 -1.129 -0.356 -0.320 5 -0.827 -0.830 -0.318 6 -0.477 -1.110 -0.209 7 -0.070 -1.192 -0.005 8 0.419 -1.059 0.261 9 1.054 -0.675 0.498 10 2.010 0.070 0.461 11 3.763 1.463 -0.517 11 10 9 8 7 6 5 1 2 3 4 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.5 -3 -2 -1 0 1 2 3 4 5 PC1 PC2
  • 25. CHL DS SAL PO4 NH3 NO2 NO3 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 PC1 (63.3%) PC2 (20.2%) CHL DS SAL PO4 NH3 NO2 NO3 -1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 -1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 PC1 (63.3%) PC3 (16.5%) r p 2 
  • 26. Y 6  5 4 6  5 4  6  5  4 6  5  4  6 5 4 6 5 4  6 5  4 6 5  4             Coordinate dei vertici del parallelepipedo dopo la rotazione che rende i suoi lati paralleli agli assi cartesiani [vedi (b)] Y U X   U U  1 0 0 0 1 0 0 0 1            U 0.578 0.577  0.577 0.707  1.816  10   0.707 0.407 0.817 0.409            La matrice degli autovettori è ortogonale: in altre parole, gli autovettori (righe) sono linearmente indipendenti fra loro. Quindi: U  eigenvec R        287.654 0 0 0 199.709 0 0 0 127.988            matrice degli autovalori (in ordine decrescente)   reverse sort eigenvals R ( ) ( ) ( )  R  X  X     R 205.209 65.206  3.741 65.206  207.892 46.059  3.741 46.059  202.251            matrice SSCP (sum of squares and cross products), cioè: R X X   X 4.04  7.07 3.26 8.66  1.41 0 1.73 7.07 4.89  2.88  1.41 8.16  2.88 1.41  8.16 1.73  7.07  4.89 8.66 1.41  0 4.04 7.07  3.26             coordinate dei vertici di un parallepipedo (il baricentro coincide con l'origine degli assi) [vedi (a)] Rotazione rigida di un insieme di punti.
  • 27. Y ( )    Y ( )     Y ( )         X ( )    X ( )     X ( )        
  • 28. i 1 3   X 2 1 2 1 4 1.5 2 1.5 3          j 1 3   i i  eigenvals X ( ) i   2.466 0 0 0 0.432 0 0 0 6.102          i i i   9  i X i i   9  U i j  eigenvec X  j j    i  U 0.44 0.758  0.482 0.774  0.048  0.631 0.455 0.651 0.608          j U 1 j  U 2 j    0  j U 1 j  U 3 j    0  j U 2 j  U 3 j    0  XU=U XU-U=0 U   1.085 1.869  1.188 0.334  0.021  0.273 2.777 3.969 3.71          X U  1.085 1.869  1.188 0.334  0.021  0.273 2.777 3.969 3.71          X U  U    0 0 0 0 0 0 0 0 0         
  • 29. Analisi delle Componenti Principali. dati bruti (7 variabili [righe] per 6 oggettii [colonne]) x 632.53 26.919 79.126 41.908 24.552 0.737 1.289 267.5 9.325 63.657 13.137 29.273 0.702 13.875 310.549 13.07 48.223 20.448 28.43 0.644 1.59 172.835 5.647 213.082 8.48 31.266 0.791 2.528 211.882 6.338 69.371 7.474 33.766 2.452 1.253 120.379 3.92 44.174 10.821 31.879 0.852 1.858                        n cols x ( )  p rows x ( )  i 1 p   j 1 n   k 1 p   m 1 n x     s stdev x        y  x  m  s  dati centrati e standardizzati (sulla riga) y 2.079 2.069 0.123  2.091 1.806  0.458  0.536  0.111  0.199  0.39  0.329  0.2  0.512  2.226 0.148 0.284 0.657  0.286 0.487  0.603  0.47  0.678  0.673  2.188 0.72  0.478 0.373  0.264  0.444  0.584  0.292  0.805  1.328 2.224 0.544  0.993  0.896  0.726  0.523  0.686 0.278  0.411                        
  • 30. dati centrati e standardizzati (sulla riga) y 2.079 2.069 0.123  2.091 1.806  0.458  0.536  0.111  0.199  0.39  0.329  0.2  0.512  2.226 0.148 0.284 0.657  0.286 0.487  0.603  0.47  0.678  0.673  2.188 0.72  0.478 0.373  0.264  0.444  0.584  0.292  0.805  1.328 2.224 0.544  0.993  0.896  0.726  0.523  0.686 0.278  0.411                         S 1 n y  y   S 1 0.995 0.157  0.965 0.9  0.24  0.1  0.995 1 0.169  0.983 0.925  0.303  0.137  0.157  0.169  1 0.213  0.13 0.102  0.102  0.965 0.983 0.213  1 0.937  0.389  0.191  0.9  0.925  0.13 0.937  1 0.635 0.063  0.24  0.303  0.102  0.389  0.635 1 0.268  0.1  0.137  0.102  0.191  0.063  0.268  1                        matrice di correlazione
  • 31.   reverse sort eigenvals S ( ) ( ) ( )  matrice autovalori    7   4.086 0 0 0 0 0 0 0 1.306 0 0 0 0 0 0 0 1.065 0 0 0 0 0 0 0 0.534 0 0 0 0 0 0 0 8.167 10   0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0                        N.B. Se il numero delle variabili (p) è maggiore del numero degli oggetti (n), la matrice avrà p-(n-1) autovalori nulli [nel caso in esame, 7-(6-1)=7-5=2 j 1 5   U  eigenvec S       matrice autovettori (saturazioni o loadings delle variabili, in riga), norma = 1 U     1 1 1 1 1  U 0.475  0.484  0.096 0.488  0.484 0.24 0.033 0.145  0.135  0.128 0.123  0.169  0.619  0.719 0.016  1.984 10   0.894 4.606 10   0.042  0.238  0.377  0.312 0.188 0.409 0.028  0.041 0.618 0.562 0.073  0.254  0.064 0.812 0.495 0.05  0.138                        (possono essere rappresentati come un istogramma per riga [cioè per PC] o come scatterplot)
  • 32. U  U    S    U 0.959  0.978  0.194 0.987  0.979 0.484 0.067 0.165  0.154  0.147 0.14  0.193  0.708  0.822 0.016  2.048 10   0.923 4.754 10   0.044  0.246  0.389  0.228 0.138 0.299 0.02  0.03 0.452 0.411 6.614  10   0.023  5.75 10   0.073 0.045 4.481  10   0.012                          correlazioni fra variabili (righe) e PCs F y U   coordinate o scores oggetti (righe) F 8.131  0.255 1.629  2.714 4.076 2.715 0.743  2.269 0.07  0.593 2.044  4.226  10   0.266 1.091  0.254  2.199 0.66  0.46  0.198 0.515 0.609  0.158 0.568 0.83  5.868 10   1.157 10   0.015  5.186  10   1.656  10   0.011                       
  • 34.       punti-descrittore (norma=1) e cerchio del contributo equilibrato agli assi (dimensioni rappresentazione/n. descrittori=2/p): 1.o e 2.o asse.       idem, per 1.a e 3.a CP
  • 35. Le quattro diverse versioni dell'Analisi delle Compenenti Principali. X 2 4 12 10 33 13 42 30 55 17 60 42 62 27 65 25 92 55 99 43        dati bruti (2 variabili per 10 osservazioni) X 1 n X     X 52.2 26.6        medie deviazioni standard X 1 n X  X       Dati centrati Dati standardizzati SiSi SiNo NoSi NoNo x’=(x-m)/s x’=x-m x’=x/s x’=x
  • 36. Soluzione #1: dati non centrati e non standardizzati [cfr. fig. (a), assi interi] R 1 n X  X   R 3596 1788.8 1788.8 946.6          reverse sort eigenvals R         4497.201 0 0 45.399        U  eigenvec R       U 0.893 0.45 0.45  0.893        L X U   L 3.586 15.216 35.32 51.007 56.767 72.481 67.518 69.297 106.908 107.76 2.672 3.532 3.238  7.895 9.564  10.513 3.783  6.919  7.725 6.141                                    
  • 37. Soluzione #2: dati centrati e non standardizzati [cfr. fig. (a), assi tratteggiati] X  X  X   R 1 n X  X   R 871.16 400.28 400.28 239.04          reverse sort eigenvals R         1.065 10  0 0 45.082        U  eigenvec R       U 0.9 0.436 0.436  0.9        L X U   L 55.031  43.415  23.209  7.697  1.666  13.735 8.994 10.821 48.201 49.268 1.552 2.591 3.867  7.508 9.86  10.457 3.913  7.021  8.202 5.649                                      
  • 38. Soluzione #3: dati non centrati e standardizzati [cfr. fig. (b), assi interi] Z  X  X  R 1 n Z  Z   R 4.128 3.92 3.92 3.96          reverse sort eigenvals R         7.965 0 0 0.123        U  eigenvec R       U 0.715 0.699 0.699  0.715        L Z U   L 0.229 0.743 1.387 2.374 2.101 3.353 2.723 2.705 4.716 4.342 0.137 0.178 0.181  0.391 0.518  0.519 0.221  0.385  0.362 0.359                                     
  • 39. Soluzione #4: dati centrati e standardizzati [cfr. fig. (b), assi tratteggiati] Z  X  X  X  R 1 n Z  Z   R 1 0.877 0.877 1          reverse sort eigenvals R         1.877 0 0 0.123        U  eigenvec R       U 0.707 0.707 0.707  0.707        L Z U   L 2.236  1.722  1.082  0.089  0.372  0.891 0.253 0.233 2.252 1.871 0.169 0.204 0.162  0.4 0.506  0.517 0.216  0.38  0.345 0.371                                      
  • 40. CA
  • 41. Analisi diretta di gradiente • Modello lineare – Analisi di Ridondanza (RDA) • Modello unimodale – Analisi Canonica delle Corrispondenze (CCA) – Analisi Canonica delle Corrispondenze Detrendizzata (DCCA)
  • 42. CCA