SlideShare a Scribd company logo
1 of 41
Scarica di neuroni in vivo
Registrazioni multi-elettrodo in vitro
LE RETI NEURONALI E
L’EMERGENZA DELLE
FUNZIONI SUPERIORI
Proprietà computazionali del sistema nervoso
cervello vs. computer:
•lento (≅100 Hz vs. ≅0.1-1 GHz)
•impreciso (109
volte meno di una CPU)
•Tuttavia il cervello, in 100 ms, riconosce un viso tra migliaia, un’operazione che il
più potente dei computer non può fare.
•“Poco” sensibile ad alterazioni dell’hardware (graceful degradation)
•Si autoripara (plasticità riparatoria)
•Si modifica con l’apprendimento
•Calcolo organizzato in parallelo
Limiti imposti dalla
natura fisica dei
neuroni
Plasticità neuronale e
tissutale
Organizzazione in reti
nervose
Hardware modificabile:
le reti sono programmate geneticamente solo in termini generali. Gli
aggiustamenti fini avvengono mediante l’esperienza determinata da interazioni
ppilotate dal momdo interno (ormoni, fattori di crescita, neurotrasmettitori, fattori
di adesione e contatto) ed esterno (stimoli sensoriali)
Con 1012
neuroni e 103
connessioni/neurone, ammettendo che ogni connessione rappresenti un
bit, occorrerebbero 1015
bits.
Il genoma umano contiene 3x109
paia di basi, ognuna in 4 possibili configurazioni (ACGT).
Ogni base contiene 2 bits di informazione ed il genoma 6x109
bits (750 MB). Quindi il
genoma non potrebbe programmare tutte le connessioni necessarie (nemmeno ammettendo
che serva interamente e solamente a questo scopo). L’informazione necessaria per
l’assemblaggio del cervello deve provenire dall’ambiente.
L’uomo apprende a circa 2 bits/sec 109
bits (circa 150 MB)
Capacità computazionale del sistema nervoso
1012
neurons
103
synapses/neuron
10 synaptic operation/sec
1016
synapse operations/sec
102
units/CS
102
operations/CS.sec
106
optic nerve fibers
1010
operations/sec 1014
operations/sec
In each retinal center-sorround (CS):
Retina = 10-4
whole brain
Dissipazione di energia per funzioni computazionali :
cervello 10 watt
nodo+internodo 5x10-15
joules/spike
2x1015
Ranvier operation/sec
no
Ranvier nodes ≅ no
synapses
Problema cervello - menteProblema cervello - mente
Le relazioni tra cervello e mente, traLe relazioni tra cervello e mente, tra
materia e pensiero, hanno condotto amateria e pensiero, hanno condotto a
complesse ipotesi che hanno coinvoltocomplesse ipotesi che hanno coinvolto
numerosi settori della conoscenza.numerosi settori della conoscenza.
Lo sviluppo delle NeuroscienzeLo sviluppo delle Neuroscienze
consente un approccio innovativo:consente un approccio innovativo:
cercare la “funzione di trasferimento”cercare la “funzione di trasferimento”
tra il cervello e la mentetra il cervello e la mente
UnaUna teoriateoria di particolare interesse èdi particolare interesse è
quellaquella delle reti neuronalidelle reti neuronali
SNC = rete di reti
Apprendimento
e memoria
computazione
Funzioni e stati del sistema nervoso:Funzioni e stati del sistema nervoso:
Stato di coscienzaStato di coscienza
MemoriaMemoria
Orientamento temporo-spazialeOrientamento temporo-spaziale
AttenzioneAttenzione
Tono dell’umoreTono dell’umore
EmotivitàEmotività
LogicaLogica
GiudizioGiudizioPensieroPensiero
LinguaggioLinguaggio
ComportamentoComportamento
•Sono obiettivabili clinicamente ma difficili da quantificare.Sono obiettivabili clinicamente ma difficili da quantificare.
•Sono alterati specificamente da patologie o trattamenti farmacologiciSono alterati specificamente da patologie o trattamenti farmacologici
•Sono riconducibili (almeno in parte) a specifiche strutture cereberaliSono riconducibili (almeno in parte) a specifiche strutture cereberali
Modelli animaliModelli animali
Psicologia sperimentalePsicologia sperimentale
Osservazione clinicaOsservazione clinica
Reti neuronaliReti neuronali
CodificazioneCodificazione
Apprendimento/memoriaApprendimento/memoria
Organizzazione/strutturaOrganizzazione/struttura
ApprendimentoApprendimento
RiconoscimentoRiconoscimento
AstrazioneAstrazione
CategorizzazioneCategorizzazione
•Non hanno regole o memoriaNon hanno regole o memoria a prioria priori, eccetto quelle pertinenti alla loro struttura e, eccetto quelle pertinenti alla loro struttura e
modalità di apprendimento: creano regole estraendole dalla realtà che viene loromodalità di apprendimento: creano regole estraendole dalla realtà che viene loro
presentata.presentata.
•Apprendimento, computazione e memoria sono proprietà distribuite delle retiApprendimento, computazione e memoria sono proprietà distribuite delle reti
neuronali.neuronali.
•Il calcolo è parallelizzatoIl calcolo è parallelizzato
•Reti neuronali appropriate possono mimano le strutture corticali riproducendoReti neuronali appropriate possono mimano le strutture corticali riproducendo
aspetti rilevanti delle funzioni superiori ed i loro stati patologiciaspetti rilevanti delle funzioni superiori ed i loro stati patologici
Implicazioni per:Implicazioni per:
•OntogenesiOntogenesi
•Org. topologicaOrg. topologica
•ApprendimentoApprendimento
•PercezionePercezione
•LinguaggioLinguaggio
•MotricitàMotricità
•PatologiePatologie
•EpilessiaEpilessia
•AtassiaAtassia
•M. AlzheimerM. Alzheimer
•SchizofreniaSchizofrenia
•DepressioneDepressione
•AutismoAutismo
•Dist. LinguaggioDist. Linguaggio
Principi operativi delle reti neuronaliPrincipi operativi delle reti neuronali
Il neurone di McCulloch-Pitt e leIl neurone di McCulloch-Pitt e le
sinapsi Hebbianesinapsi Hebbiane
• Il neurone è rappresntatoIl neurone è rappresntato
formalmente come un elementoformalmente come un elemento
eccitabile binario che rispondeeccitabile binario che risponde
con uno spike quando una sogliacon uno spike quando una soglia
venga raggiunta.venga raggiunta.
• Le sinapsi contribuisconoLe sinapsi contribuiscono
sommando il loro contributosommando il loro contributo
(peso)(peso)
• I pesi sinapticiI pesi sinaptici sono regolabilisono regolabili
secondo regole di apprendimentosecondo regole di apprendimento
di tipi Hebbianodi tipi Hebbiano
Input
Synaptic weights
Activation function
Single perceptron: il problema della rappresentazione
•La rete genera una
rappresentazione interna
dello stimolo modificando i
suoi pesi sinaptici
•La rete può accumulare più
immagini simultaneamente
• nella rete tutti I neuroni
hanno uguale importanza,
sia quelli che sctricano che
quelli silenti
•Modifiche in su (LTP) o in
giu’ (LTD) hanno uguale
importanza.
Grand-mother neurons segnalanoGrand-mother neurons segnalano
l’esistenza di proprieta’ complesse, ma nonl’esistenza di proprieta’ complesse, ma non
spiegano come la rete funzionaspiegano come la rete funziona
•I pesi sinaptici possono essereI pesi sinaptici possono essere
modificati mediante confronto con unmodificati mediante confronto con un
output desiderato.output desiderato.
•In tal modo, la rete neuronale puòIn tal modo, la rete neuronale può
apprendere, memorizzare, e generareapprendere, memorizzare, e generare
regole.regole.
•Matematicamente, tali operazioni sonoMatematicamente, tali operazioni sono
rappresentabili da prodotti di matricirappresentabili da prodotti di matrici
• occorrono migliaia di presentazioni edoccorrono migliaia di presentazioni ed
aggiustamenti.aggiustamenti.
•Ma noi impariamo anche con una solaMa noi impariamo anche con una sola
rappresentazione e senza template. Doverappresentazione e senza template. Dove
sta il problema?sta il problema?
Supervised learning ed error back-propagationSupervised learning ed error back-propagation
Ripetizione delle presentazioni:Ripetizione delle presentazioni:
• Memoria esplicita: l’ippocampo ed il circuito di PapezMemoria esplicita: l’ippocampo ed il circuito di Papez
consentono il ricircolo dell’informazione e la sua proiezioneconsentono il ricircolo dell’informazione e la sua proiezione
sulla corteccia in migliaia di presentazioni.sulla corteccia in migliaia di presentazioni.
• Memoria implicita: l’apprendimento richiede di per séMemoria implicita: l’apprendimento richiede di per sé
migliaia di presentazionimigliaia di presentazioni
Confronto con il template:Confronto con il template:
1.1. Reti auto-organizzantiReti auto-organizzanti
2.2. Unsupervised learningUnsupervised learning
Reti neuronali artificiali con supervised learningReti neuronali artificiali con supervised learning
• Simple perceptronSimple perceptron
• Auto-organizzantiAuto-organizzanti
• Hidden layersHidden layers
• Auto-associativeAuto-associative
• RicorrentiRicorrenti
Mimano particolari caratteristiche organizztive del cervelloMimano particolari caratteristiche organizztive del cervello
Sono semplificazioni utili per studiare proprietà generali emergentiSono semplificazioni utili per studiare proprietà generali emergenti
dalla strutura e dalla connettività cellulare del SNC.dalla strutura e dalla connettività cellulare del SNC.
Organizzazione center-surround
delle colonne corticali
•Effetto dell’inibizione f
laterale
•Hebbian learing
Reti auto-organizzanti di Kohonen
•Ogni neurone del Kohonen
layer riceve una connessione
da ogni neurone dell’input
layer
•Connessioni center-sorround
•Hebbian learning
Nasce competizione tra i neuroni del Kohonen layer: il winner neuron domina
un center-surround mediante regolazione dei pesi sinaptici.
Riconoscimento di patterns:
Somiglianza
Frequenza
Il processo di auto-organizzazione
• Inizialmente i pesi sono casuali
• Ripetute presentazioni dell’input causano l’emergenza dei winning neurons
• Dopo learning i pesi dei winning neurons rappresentano il vettore d’ingresso
• L’attivazione di un certo winning neuron sarà così rappresentativa di un
deteminato input.
• È avvenuto il riconoscimento secondo rappresentazioni neuronali che
rispecchaino principi di somiglianza, frequenza, ed organizzazione topografica.
• Spiega:
1. Organizzazione center-surround
2. Organizzazione somatotopica
3. Plasticità delle mappe corticali
4. Astrazione e rilevanza
Hidden layers
Gli hidden layers consentono di risolvere il
problema dell’XOR (Sejinowski)
2x106
input fibers
2x106
output fibers
1012
neurons
Oltre 99% dei neuroni non
sono connessi direttamente
con l’input o l’output del SNC
Gli hidden layer consentono la rappresentazione di:
•Proprietà complesse
•Proprietà astratte
•prototipi
Feed-back: rete auto-associativa di Hopfield
Se ogni neurone manda 104
connessioni ad
altri neuroni, nel giro di 3 livelli di
connessione deve avvenire un feed-back:
104
x 104
x 104
=1012
neuroni del CNS
Quindi, dopo solo 2 passaggi sinaptici, un
impulso ritorna al punto di origine: qual’e’ il
significato di un feed-back cosi’ massiccio?
•Plasticita’ hebbiana
nelle sinapsi
•Feed-back:
rappresentazione del
tempo
Analisi formale secondo la teoria
degli “spin glasses”: si formano
attrattori per modifica Hebbiana dei
pesi sinaptici
•Riconoscimento da pattern
incompleto o rumoroso
•Giudica somiglianza
•generalizzazione
Rete ricorrente di Elman
•Codifica sequenze temporali
•Rappresenta il contesto
•Working memory
Attivazione dei lobi
prefrontali in un
working-memory
test
Coscienza??Coscienza??
Ulteriori implicazioni delle reti neurali
artificiali
Organizzazione modulare
•Le reti neuronali apprendono
meglio se organizzate in moduli
•Durante l’ontogenesi, i moduli si
connettono progressivamente tra
loro in seguito alla
mielinizzazione dei fasci di
proiezione
Top-down effect
“gestalt” effects
Organizzazione a ping-pong
Applicazioni a patologie
•M. Alzheimer: Ach riduce la run-away synaptic modification
•Schizofrenia: Dopamina previene non-focused activation e indirect semantic priming
Reti semantiche auto-organizzanti
Limiti ed evoluzione delle reti neurali
artificiali
2 problemi del meccanismo di error-
backpropagation:
1) Supervised learning: nella realta’
bisogna acquisire l’informazione
senza uno schema precostituito
2) Numero di ripetizioni enorme (103
)
Limiti del processo di apprendimento mediante error back-
propagation
•Cio’ si verifica nell’apprendamento
implicito (di tipo motorio o
procedurale).
•In quello esplicito (o semantico)
sistemi di riverberazione
determinano persistenza
dell’immagine da ricordare.
Unsupervised learningUnsupervised learning
Unsupervised learning
generato.esserepossadimensionitaidisegnaleuncomechiaroèNon
sinapsi.dellelacapacitàsfruttareperbits/sec10conteneredevenesupervisiodisegnaleil
sec,10viveeparametri10haretelaSe
learning.supervisedilusando
immaginidisequenzaunaanalizareperneuronalereteunautilizzaredioImmaginiam
anni90sec10sec30758400anno1
5
914
9
≈⇒=
•Le immagini non sono random bensì generate da processi fisici di complessità limitata
•Risposte appropriate all’immagine dipendono dalle sue cause fisiche piuttosto che
dall’intensità dei pixels
Un processo di UNSUPERVISED LEARNING estrae le cause sottostanti, ed un
algoritmo separato tra conclusioni sulla risposta appropriata.
UNSUPERVISED LEARNING modellizza la densità di probabilità dell’input che
fornisce i 100000 bit/sec di constrains necessari per sfruttare la capacità delle sinapsi.
struttura
cause fisiche
correlazioni
ridondanza
informazione
100x106
fotorecettori
1x106
cellule
ganglionari
compression
Algoritmo di
minimizzazione
della ridondanza
Estrazione dell’informazione
sfruttando la ridondanza
dell’immagine
Questo si ottiene in feed-
forward neuronal networks
con plasticità hebbiana ed
inibizione laterale (es.
retina, ippocampo,
neocortex, cerebellum)
Dinamica nelle reti neuronali
Normalmente le reti procedono per stati successivi indipendenti,
non hanno cioè una loro dinamica. Inoltre, i loro neuroni non
sono spiking. Questi due aspetti sono attualmente in fase di
studio.
Modelli dinamici del cervelletto
Modelli di controllo della coordinazione motoria
No LTP LTP
Effetto dell’LTP tra fibre muscoidi e cellule granulari
Conclusioni
Le reti neuronali aitutano a comprendere l’emergenza delle
funzioni cognitive e delle loro patologie. Tuttavia una loro
estenzione e’ necessaria per comprendere in che modo specifiche
operazioni neuronali e sinaptiche e specifici principi
computazionali si applichino alle reali reti del sistema nervoso.

More Related Content

Similar to Safi

La mente relazionale di Siegel b
La mente relazionale di Siegel bLa mente relazionale di Siegel b
La mente relazionale di Siegel bimartini
 
La mente relazionale di siegel
La mente relazionale di siegelLa mente relazionale di siegel
La mente relazionale di siegeliva martini
 
Cervelli sotto il_microscopio n
Cervelli sotto il_microscopio nCervelli sotto il_microscopio n
Cervelli sotto il_microscopio nimartini
 
Gestione del paziente con LES
Gestione del paziente con LESGestione del paziente con LES
Gestione del paziente con LESSCAN Onlus
 
MATLAB Environment for Neural Network Deployment
MATLAB Environment for Neural Network DeploymentMATLAB Environment for Neural Network Deployment
MATLAB Environment for Neural Network DeploymentAngelo Cardellicchio
 
Memoria 2436339
Memoria  2436339Memoria  2436339
Memoria 2436339imartini
 
Memoria 2436339
Memoria  2436339Memoria  2436339
Memoria 2436339imartini
 
Get file b
Get file bGet file b
Get file bimartini
 
The first human-electronic creature: Cremino
The first human-electronic creature: CreminoThe first human-electronic creature: Cremino
The first human-electronic creature: CreminoRita Pizzi
 
Reti neurali: ipotetiche forme di vita artificiale o realistici calcolatori a...
Reti neurali: ipotetiche forme di vita artificiale o realistici calcolatori a...Reti neurali: ipotetiche forme di vita artificiale o realistici calcolatori a...
Reti neurali: ipotetiche forme di vita artificiale o realistici calcolatori a...Fausto Intilla
 
Valtazione neuropsicologica
Valtazione neuropsicologica Valtazione neuropsicologica
Valtazione neuropsicologica imartini
 
Valtazione neuropsicologica mg
Valtazione neuropsicologica mgValtazione neuropsicologica mg
Valtazione neuropsicologica mgiva martini
 
08 nervoso 2434468
08 nervoso  243446808 nervoso  2434468
08 nervoso 2434468imartini
 
1540154763
15401547631540154763
1540154763imartini
 
1540154763 (1)
1540154763 (1)1540154763 (1)
1540154763 (1)imartini
 

Similar to Safi (20)

La mente relazionale di Siegel b
La mente relazionale di Siegel bLa mente relazionale di Siegel b
La mente relazionale di Siegel b
 
La mente relazionale di siegel
La mente relazionale di siegelLa mente relazionale di siegel
La mente relazionale di siegel
 
Cervelli sotto il_microscopio n
Cervelli sotto il_microscopio nCervelli sotto il_microscopio n
Cervelli sotto il_microscopio n
 
Gestione del paziente con LES
Gestione del paziente con LESGestione del paziente con LES
Gestione del paziente con LES
 
MATLAB Environment for Neural Network Deployment
MATLAB Environment for Neural Network DeploymentMATLAB Environment for Neural Network Deployment
MATLAB Environment for Neural Network Deployment
 
Le reti neurali
Le reti neuraliLe reti neurali
Le reti neurali
 
Memoria 2436339
Memoria  2436339Memoria  2436339
Memoria 2436339
 
Memoria 2436339
Memoria  2436339Memoria  2436339
Memoria 2436339
 
Get file b
Get file bGet file b
Get file b
 
The first human-electronic creature: Cremino
The first human-electronic creature: CreminoThe first human-electronic creature: Cremino
The first human-electronic creature: Cremino
 
Psicotecnologie ed empowerment cognitivo
Psicotecnologie ed empowerment cognitivoPsicotecnologie ed empowerment cognitivo
Psicotecnologie ed empowerment cognitivo
 
Nervoso w
Nervoso wNervoso w
Nervoso w
 
Reti neurali: ipotetiche forme di vita artificiale o realistici calcolatori a...
Reti neurali: ipotetiche forme di vita artificiale o realistici calcolatori a...Reti neurali: ipotetiche forme di vita artificiale o realistici calcolatori a...
Reti neurali: ipotetiche forme di vita artificiale o realistici calcolatori a...
 
Valtazione neuropsicologica
Valtazione neuropsicologica Valtazione neuropsicologica
Valtazione neuropsicologica
 
Valtazione neuropsicologica mg
Valtazione neuropsicologica mgValtazione neuropsicologica mg
Valtazione neuropsicologica mg
 
Sistema Nervoso
Sistema NervosoSistema Nervoso
Sistema Nervoso
 
08 nervoso 2434468
08 nervoso  243446808 nervoso  2434468
08 nervoso 2434468
 
1540154763
15401547631540154763
1540154763
 
1540154763 (1)
1540154763 (1)1540154763 (1)
1540154763 (1)
 
1540154763
15401547631540154763
1540154763
 

More from imartini

2 parliamo e discutiamo del bullismo
2 parliamo e discutiamo del bullismo2 parliamo e discutiamo del bullismo
2 parliamo e discutiamo del bullismoimartini
 
Scheda bambino
Scheda bambinoScheda bambino
Scheda bambinoimartini
 
Subitizing
SubitizingSubitizing
Subitizingimartini
 
intelligenza emotiva
intelligenza emotivaintelligenza emotiva
intelligenza emotivaimartini
 
Il quaderno delle_regole_di_matematica
Il quaderno delle_regole_di_matematicaIl quaderno delle_regole_di_matematica
Il quaderno delle_regole_di_matematicaimartini
 
comunicazione_non_verbale
 comunicazione_non_verbale comunicazione_non_verbale
comunicazione_non_verbaleimartini
 
osservazione fattoei di rischio dsa
osservazione fattoei  di rischio dsaosservazione fattoei  di rischio dsa
osservazione fattoei di rischio dsaimartini
 
Prerequisiti
Prerequisiti Prerequisiti
Prerequisiti imartini
 
Per sito-prerequisiti-letto-scrittura
Per sito-prerequisiti-letto-scrittura Per sito-prerequisiti-letto-scrittura
Per sito-prerequisiti-letto-scrittura imartini
 
Dispensa dsa
Dispensa  dsaDispensa  dsa
Dispensa dsaimartini
 
Dentro ai dsa n
Dentro ai dsa nDentro ai dsa n
Dentro ai dsa nimartini
 
stili di apprendimento
stili di apprendimentostili di apprendimento
stili di apprendimentoimartini
 
Dsa fasce eta
Dsa  fasce etaDsa  fasce eta
Dsa fasce etaimartini
 
Sviluppo percettivomotorio
Sviluppo percettivomotorio Sviluppo percettivomotorio
Sviluppo percettivomotorio imartini
 
prerequisiti della scrittura
prerequisiti della scritturaprerequisiti della scrittura
prerequisiti della scritturaimartini
 

More from imartini (20)

2 parliamo e discutiamo del bullismo
2 parliamo e discutiamo del bullismo2 parliamo e discutiamo del bullismo
2 parliamo e discutiamo del bullismo
 
Scheda bambino
Scheda bambinoScheda bambino
Scheda bambino
 
Subitizing
SubitizingSubitizing
Subitizing
 
intelligenza emotiva
intelligenza emotivaintelligenza emotiva
intelligenza emotiva
 
Il quaderno delle_regole_di_matematica
Il quaderno delle_regole_di_matematicaIl quaderno delle_regole_di_matematica
Il quaderno delle_regole_di_matematica
 
comunicazione_non_verbale
 comunicazione_non_verbale comunicazione_non_verbale
comunicazione_non_verbale
 
Adhd u
Adhd uAdhd u
Adhd u
 
DSA
DSADSA
DSA
 
osservazione fattoei di rischio dsa
osservazione fattoei  di rischio dsaosservazione fattoei  di rischio dsa
osservazione fattoei di rischio dsa
 
Prerequisiti
Prerequisiti Prerequisiti
Prerequisiti
 
Per sito-prerequisiti-letto-scrittura
Per sito-prerequisiti-letto-scrittura Per sito-prerequisiti-letto-scrittura
Per sito-prerequisiti-letto-scrittura
 
scrittura
scritturascrittura
scrittura
 
Dispensa dsa
Dispensa  dsaDispensa  dsa
Dispensa dsa
 
Dentro ai dsa n
Dentro ai dsa nDentro ai dsa n
Dentro ai dsa n
 
dislessia
dislessiadislessia
dislessia
 
stili di apprendimento
stili di apprendimentostili di apprendimento
stili di apprendimento
 
DSA
DSADSA
DSA
 
Dsa fasce eta
Dsa  fasce etaDsa  fasce eta
Dsa fasce eta
 
Sviluppo percettivomotorio
Sviluppo percettivomotorio Sviluppo percettivomotorio
Sviluppo percettivomotorio
 
prerequisiti della scrittura
prerequisiti della scritturaprerequisiti della scrittura
prerequisiti della scrittura
 

Safi

  • 3.
  • 4. LE RETI NEURONALI E L’EMERGENZA DELLE FUNZIONI SUPERIORI
  • 5. Proprietà computazionali del sistema nervoso cervello vs. computer: •lento (≅100 Hz vs. ≅0.1-1 GHz) •impreciso (109 volte meno di una CPU) •Tuttavia il cervello, in 100 ms, riconosce un viso tra migliaia, un’operazione che il più potente dei computer non può fare. •“Poco” sensibile ad alterazioni dell’hardware (graceful degradation) •Si autoripara (plasticità riparatoria) •Si modifica con l’apprendimento •Calcolo organizzato in parallelo Limiti imposti dalla natura fisica dei neuroni Plasticità neuronale e tissutale Organizzazione in reti nervose
  • 6. Hardware modificabile: le reti sono programmate geneticamente solo in termini generali. Gli aggiustamenti fini avvengono mediante l’esperienza determinata da interazioni ppilotate dal momdo interno (ormoni, fattori di crescita, neurotrasmettitori, fattori di adesione e contatto) ed esterno (stimoli sensoriali) Con 1012 neuroni e 103 connessioni/neurone, ammettendo che ogni connessione rappresenti un bit, occorrerebbero 1015 bits. Il genoma umano contiene 3x109 paia di basi, ognuna in 4 possibili configurazioni (ACGT). Ogni base contiene 2 bits di informazione ed il genoma 6x109 bits (750 MB). Quindi il genoma non potrebbe programmare tutte le connessioni necessarie (nemmeno ammettendo che serva interamente e solamente a questo scopo). L’informazione necessaria per l’assemblaggio del cervello deve provenire dall’ambiente. L’uomo apprende a circa 2 bits/sec 109 bits (circa 150 MB)
  • 7. Capacità computazionale del sistema nervoso 1012 neurons 103 synapses/neuron 10 synaptic operation/sec 1016 synapse operations/sec 102 units/CS 102 operations/CS.sec 106 optic nerve fibers 1010 operations/sec 1014 operations/sec In each retinal center-sorround (CS): Retina = 10-4 whole brain Dissipazione di energia per funzioni computazionali : cervello 10 watt nodo+internodo 5x10-15 joules/spike 2x1015 Ranvier operation/sec no Ranvier nodes ≅ no synapses
  • 8. Problema cervello - menteProblema cervello - mente Le relazioni tra cervello e mente, traLe relazioni tra cervello e mente, tra materia e pensiero, hanno condotto amateria e pensiero, hanno condotto a complesse ipotesi che hanno coinvoltocomplesse ipotesi che hanno coinvolto numerosi settori della conoscenza.numerosi settori della conoscenza. Lo sviluppo delle NeuroscienzeLo sviluppo delle Neuroscienze consente un approccio innovativo:consente un approccio innovativo: cercare la “funzione di trasferimento”cercare la “funzione di trasferimento” tra il cervello e la mentetra il cervello e la mente UnaUna teoriateoria di particolare interesse èdi particolare interesse è quellaquella delle reti neuronalidelle reti neuronali SNC = rete di reti Apprendimento e memoria computazione
  • 9. Funzioni e stati del sistema nervoso:Funzioni e stati del sistema nervoso: Stato di coscienzaStato di coscienza MemoriaMemoria Orientamento temporo-spazialeOrientamento temporo-spaziale AttenzioneAttenzione Tono dell’umoreTono dell’umore EmotivitàEmotività LogicaLogica GiudizioGiudizioPensieroPensiero LinguaggioLinguaggio ComportamentoComportamento •Sono obiettivabili clinicamente ma difficili da quantificare.Sono obiettivabili clinicamente ma difficili da quantificare. •Sono alterati specificamente da patologie o trattamenti farmacologiciSono alterati specificamente da patologie o trattamenti farmacologici •Sono riconducibili (almeno in parte) a specifiche strutture cereberaliSono riconducibili (almeno in parte) a specifiche strutture cereberali Modelli animaliModelli animali Psicologia sperimentalePsicologia sperimentale Osservazione clinicaOsservazione clinica
  • 11. CodificazioneCodificazione Apprendimento/memoriaApprendimento/memoria Organizzazione/strutturaOrganizzazione/struttura ApprendimentoApprendimento RiconoscimentoRiconoscimento AstrazioneAstrazione CategorizzazioneCategorizzazione •Non hanno regole o memoriaNon hanno regole o memoria a prioria priori, eccetto quelle pertinenti alla loro struttura e, eccetto quelle pertinenti alla loro struttura e modalità di apprendimento: creano regole estraendole dalla realtà che viene loromodalità di apprendimento: creano regole estraendole dalla realtà che viene loro presentata.presentata. •Apprendimento, computazione e memoria sono proprietà distribuite delle retiApprendimento, computazione e memoria sono proprietà distribuite delle reti neuronali.neuronali. •Il calcolo è parallelizzatoIl calcolo è parallelizzato •Reti neuronali appropriate possono mimano le strutture corticali riproducendoReti neuronali appropriate possono mimano le strutture corticali riproducendo aspetti rilevanti delle funzioni superiori ed i loro stati patologiciaspetti rilevanti delle funzioni superiori ed i loro stati patologici
  • 12. Implicazioni per:Implicazioni per: •OntogenesiOntogenesi •Org. topologicaOrg. topologica •ApprendimentoApprendimento •PercezionePercezione •LinguaggioLinguaggio •MotricitàMotricità •PatologiePatologie •EpilessiaEpilessia •AtassiaAtassia •M. AlzheimerM. Alzheimer •SchizofreniaSchizofrenia •DepressioneDepressione •AutismoAutismo •Dist. LinguaggioDist. Linguaggio
  • 13. Principi operativi delle reti neuronaliPrincipi operativi delle reti neuronali Il neurone di McCulloch-Pitt e leIl neurone di McCulloch-Pitt e le sinapsi Hebbianesinapsi Hebbiane • Il neurone è rappresntatoIl neurone è rappresntato formalmente come un elementoformalmente come un elemento eccitabile binario che rispondeeccitabile binario che risponde con uno spike quando una sogliacon uno spike quando una soglia venga raggiunta.venga raggiunta. • Le sinapsi contribuisconoLe sinapsi contribuiscono sommando il loro contributosommando il loro contributo (peso)(peso) • I pesi sinapticiI pesi sinaptici sono regolabilisono regolabili secondo regole di apprendimentosecondo regole di apprendimento di tipi Hebbianodi tipi Hebbiano Input Synaptic weights Activation function
  • 14. Single perceptron: il problema della rappresentazione •La rete genera una rappresentazione interna dello stimolo modificando i suoi pesi sinaptici •La rete può accumulare più immagini simultaneamente • nella rete tutti I neuroni hanno uguale importanza, sia quelli che sctricano che quelli silenti •Modifiche in su (LTP) o in giu’ (LTD) hanno uguale importanza. Grand-mother neurons segnalanoGrand-mother neurons segnalano l’esistenza di proprieta’ complesse, ma nonl’esistenza di proprieta’ complesse, ma non spiegano come la rete funzionaspiegano come la rete funziona
  • 15. •I pesi sinaptici possono essereI pesi sinaptici possono essere modificati mediante confronto con unmodificati mediante confronto con un output desiderato.output desiderato. •In tal modo, la rete neuronale puòIn tal modo, la rete neuronale può apprendere, memorizzare, e generareapprendere, memorizzare, e generare regole.regole. •Matematicamente, tali operazioni sonoMatematicamente, tali operazioni sono rappresentabili da prodotti di matricirappresentabili da prodotti di matrici • occorrono migliaia di presentazioni edoccorrono migliaia di presentazioni ed aggiustamenti.aggiustamenti. •Ma noi impariamo anche con una solaMa noi impariamo anche con una sola rappresentazione e senza template. Doverappresentazione e senza template. Dove sta il problema?sta il problema? Supervised learning ed error back-propagationSupervised learning ed error back-propagation
  • 16. Ripetizione delle presentazioni:Ripetizione delle presentazioni: • Memoria esplicita: l’ippocampo ed il circuito di PapezMemoria esplicita: l’ippocampo ed il circuito di Papez consentono il ricircolo dell’informazione e la sua proiezioneconsentono il ricircolo dell’informazione e la sua proiezione sulla corteccia in migliaia di presentazioni.sulla corteccia in migliaia di presentazioni. • Memoria implicita: l’apprendimento richiede di per séMemoria implicita: l’apprendimento richiede di per sé migliaia di presentazionimigliaia di presentazioni Confronto con il template:Confronto con il template: 1.1. Reti auto-organizzantiReti auto-organizzanti 2.2. Unsupervised learningUnsupervised learning
  • 17. Reti neuronali artificiali con supervised learningReti neuronali artificiali con supervised learning • Simple perceptronSimple perceptron • Auto-organizzantiAuto-organizzanti • Hidden layersHidden layers • Auto-associativeAuto-associative • RicorrentiRicorrenti Mimano particolari caratteristiche organizztive del cervelloMimano particolari caratteristiche organizztive del cervello Sono semplificazioni utili per studiare proprietà generali emergentiSono semplificazioni utili per studiare proprietà generali emergenti dalla strutura e dalla connettività cellulare del SNC.dalla strutura e dalla connettività cellulare del SNC.
  • 20. Reti auto-organizzanti di Kohonen •Ogni neurone del Kohonen layer riceve una connessione da ogni neurone dell’input layer •Connessioni center-sorround •Hebbian learning Nasce competizione tra i neuroni del Kohonen layer: il winner neuron domina un center-surround mediante regolazione dei pesi sinaptici.
  • 22. Il processo di auto-organizzazione • Inizialmente i pesi sono casuali • Ripetute presentazioni dell’input causano l’emergenza dei winning neurons • Dopo learning i pesi dei winning neurons rappresentano il vettore d’ingresso • L’attivazione di un certo winning neuron sarà così rappresentativa di un deteminato input. • È avvenuto il riconoscimento secondo rappresentazioni neuronali che rispecchaino principi di somiglianza, frequenza, ed organizzazione topografica. • Spiega: 1. Organizzazione center-surround 2. Organizzazione somatotopica 3. Plasticità delle mappe corticali 4. Astrazione e rilevanza
  • 23. Hidden layers Gli hidden layers consentono di risolvere il problema dell’XOR (Sejinowski) 2x106 input fibers 2x106 output fibers 1012 neurons Oltre 99% dei neuroni non sono connessi direttamente con l’input o l’output del SNC
  • 24. Gli hidden layer consentono la rappresentazione di: •Proprietà complesse •Proprietà astratte •prototipi
  • 25. Feed-back: rete auto-associativa di Hopfield Se ogni neurone manda 104 connessioni ad altri neuroni, nel giro di 3 livelli di connessione deve avvenire un feed-back: 104 x 104 x 104 =1012 neuroni del CNS Quindi, dopo solo 2 passaggi sinaptici, un impulso ritorna al punto di origine: qual’e’ il significato di un feed-back cosi’ massiccio? •Plasticita’ hebbiana nelle sinapsi •Feed-back: rappresentazione del tempo
  • 26. Analisi formale secondo la teoria degli “spin glasses”: si formano attrattori per modifica Hebbiana dei pesi sinaptici •Riconoscimento da pattern incompleto o rumoroso •Giudica somiglianza •generalizzazione
  • 27. Rete ricorrente di Elman •Codifica sequenze temporali •Rappresenta il contesto •Working memory Attivazione dei lobi prefrontali in un working-memory test Coscienza??Coscienza??
  • 28. Ulteriori implicazioni delle reti neurali artificiali
  • 29. Organizzazione modulare •Le reti neuronali apprendono meglio se organizzate in moduli •Durante l’ontogenesi, i moduli si connettono progressivamente tra loro in seguito alla mielinizzazione dei fasci di proiezione
  • 33. Applicazioni a patologie •M. Alzheimer: Ach riduce la run-away synaptic modification •Schizofrenia: Dopamina previene non-focused activation e indirect semantic priming Reti semantiche auto-organizzanti
  • 34. Limiti ed evoluzione delle reti neurali artificiali
  • 35. 2 problemi del meccanismo di error- backpropagation: 1) Supervised learning: nella realta’ bisogna acquisire l’informazione senza uno schema precostituito 2) Numero di ripetizioni enorme (103 ) Limiti del processo di apprendimento mediante error back- propagation •Cio’ si verifica nell’apprendamento implicito (di tipo motorio o procedurale). •In quello esplicito (o semantico) sistemi di riverberazione determinano persistenza dell’immagine da ricordare. Unsupervised learningUnsupervised learning
  • 36. Unsupervised learning generato.esserepossadimensionitaidisegnaleuncomechiaroèNon sinapsi.dellelacapacitàsfruttareperbits/sec10conteneredevenesupervisiodisegnaleil sec,10viveeparametri10haretelaSe learning.supervisedilusando immaginidisequenzaunaanalizareperneuronalereteunautilizzaredioImmaginiam anni90sec10sec30758400anno1 5 914 9 ≈⇒= •Le immagini non sono random bensì generate da processi fisici di complessità limitata •Risposte appropriate all’immagine dipendono dalle sue cause fisiche piuttosto che dall’intensità dei pixels Un processo di UNSUPERVISED LEARNING estrae le cause sottostanti, ed un algoritmo separato tra conclusioni sulla risposta appropriata. UNSUPERVISED LEARNING modellizza la densità di probabilità dell’input che fornisce i 100000 bit/sec di constrains necessari per sfruttare la capacità delle sinapsi.
  • 37. struttura cause fisiche correlazioni ridondanza informazione 100x106 fotorecettori 1x106 cellule ganglionari compression Algoritmo di minimizzazione della ridondanza Estrazione dell’informazione sfruttando la ridondanza dell’immagine Questo si ottiene in feed- forward neuronal networks con plasticità hebbiana ed inibizione laterale (es. retina, ippocampo, neocortex, cerebellum)
  • 38. Dinamica nelle reti neuronali Normalmente le reti procedono per stati successivi indipendenti, non hanno cioè una loro dinamica. Inoltre, i loro neuroni non sono spiking. Questi due aspetti sono attualmente in fase di studio.
  • 39. Modelli dinamici del cervelletto
  • 40. Modelli di controllo della coordinazione motoria No LTP LTP Effetto dell’LTP tra fibre muscoidi e cellule granulari
  • 41. Conclusioni Le reti neuronali aitutano a comprendere l’emergenza delle funzioni cognitive e delle loro patologie. Tuttavia una loro estenzione e’ necessaria per comprendere in che modo specifiche operazioni neuronali e sinaptiche e specifici principi computazionali si applichino alle reali reti del sistema nervoso.