Le forme allotropiche del C-Palestini e Pancia.docx
Informatica umanistica 2016-2
1. Informatica Umanistica /
Web Science
Sistemi Informativi al servizio di attività professionali nell’ambito
dell’Editoria, del Turismo e della valorizzazione dei BBCC
2016-2
2. Introduzione all’area di studi
• Informatica UmanisticaInformatica Umanistica: area di studio che intreccia gli strumenti
e la cultura dell’informatica «simbolica» (in opposizione
all’informatica fisica, o informatica numerica) con i problemi e
gli approcci degli studi umanistici (linguistica, logica, scienza
della cultura e del linguaggio, scienze storiche archivistiche e
storiografiche)
11/29/16Informatica Umanistica e Web Science 2016 S.Lariccia Sapienza
2.2
3. Introduzione all’area di studi
• Web Science:Web Science: un «Manifest» del 2004 contenente la proposta di
istituzione di un curriculum universitario e di un’area di studi
dedicata alle Scienze del Web avanzata da parte del creatore del
WorldWideWeb Tim Berners-Lee
• Computer Science:Computer Science: La scienza dei computer come è descritta ed
insegnata nelle università anglofone dagli anni 70-80 in poi.
• Artificial IntelligenceArtificial Intelligence: un modello di approccio scientifico
intersciplinare che muove dall’obiettivo di «riprodurre» in un
sistema di calcolo (computer) intelligenze specifiche dell’uomo,
con il traguardo di riprodurre una intelligenza umana
11/29/16Informatica Umanistica e Web Science 2016 S.Lariccia Sapienza
2.3
4. Introduzione all’area di studi
• Kurzweil, R. 2006 Singularity is nearKurzweil, R. 2006 Singularity is near
• Artificial Intelligence, Intelligenza Artificiale «debole»Artificial Intelligence, Intelligenza Artificiale «debole»: un
modello di approccio scientifico intersciplinare che muove
dall’obiettivo di «riprodurre» in un sistema di calcolo (computer)
singole intelligenze specifiche dell’uomo
• Intelligenza Artificiale «forte»Intelligenza Artificiale «forte»: un modello futurologico di
sistema intelligente, perlopiù immaginato come diffuso nella
rete, ricco delle potenzialità delle reti, in grado di intrecciare le
proprie attività a supporto di quelle umane.
• Baràbasi, L. 2004, LinkedBaràbasi, L. 2004, Linked
11/29/16Informatica Umanistica e Web Science 2016 S.Lariccia Sapienza
2.4
5. Articolazione del corso
• Il corso si estende su 22 date dal 03 novembre al 20 febbraio,
martedì, mercoledì e giovedì dalle 11:00 alle 13:00
(aggiustamenti saranno discussi)
• Il corso si svolgerà in aula con videoproiettore e con l’utilizzo di
PC dei partecipanti per supportare il lavoro di 12 gruppi fino a 4-
5 persone ciascuno
• In ciascuna delle prime 4 lezioni frontali si presenterà un
argomento «chiave» del corso; su ciascuna delle Keywords si
inviteranno i partecipanti ad aggregarsi (distribuendosi anche
inbase alle necessità) e a formare Gruppi di Interesse.
•
11/29/16Informatica Umanistica e Web Science 2016 S.Lariccia Sapienza
2.5
7. Concetti di base: Informazione / energia
• Informazione , Energia Materia: un trinomio dinamico fondamentale
•
• 3.3 Energia ed entropia nei sistemi biologici I sistemi biologici sono
sistemi aperti, in quanto scambiano energia e materia con l'esterno,
permettendo lo svolgimento di processi non spontanei. Dal punto di
vista termodinamico, questi processi si riducono, nel complesso, a due
ordini di fenomeni:
• A. Riduzione dell'entropia interna. La struttura delle cellule e degli
organismi viventi richiede la formazione di macromolecole a partire da
molecole più semplici prese dall'esterno e l'eliminazione dei prodotti di
scarto del metabolismo. Nel complesso, all'interno del sistema
biologico aumenta l'ordine mentre all'esterno aumenta il disordine in
misura più che proporzionale: se all'interno di un sistema biologico
l'entropia si riduce da 100 a 10, all'esterno aumenta da 100 a 1000.
11/29/16Informatica Umanistica e Web Science 2016 S.Lariccia Sapienza
2.7
8. Concetti di base: Informazione / energia
• Informazione , Energia Materia: un trinomio dinamico fondamentale
•
• B. Accumulo di energia all'interno.
• La realizzazione e la conservazione di un differenziale fra entropia interna ed
entropia esterna crea uno stato di non equilibrio che richiede un continuo
apporto energetico. L'organismo deve perciò acquisire energia dall'esterno e
convertirla in energia potenziale (trasduzione energetica) mantenendo nel
tempo il differenziale di entropia. Un aspetto importante,. sancito dalle
leggi della Termodinamica, consiste nel fatto che, anche in biologia, la
trasduzione energetica ha un rendimento basso: dell'energia utile acquisita
dall'esterno, la maggior parte non viene convertita, bensì si disperde
nell'ambiente in una forma non più utilizzabile, contribuendo ad aumentare
l'entropia esterna..
11/29/16Informatica Umanistica e Web Science 2016 S.Lariccia Sapienza
2.8
9. Concetti di base: Informazione / energia
• Informazione , Energia Materia: un trinomio dinamico fondamentale
•
• Da questo punto di vista i sistemi biologici possono perciò essere
paragonati a macchine sofisticate che trasformano la materia
organizzandola in uno stato di maggior ordine al loro interno e di
maggior disordine al loro esterno, in una complessa rete di reazioni che
consumano energia. Affinché tutto ciò possa avvenire, i sistemi biologici
devono disporre di barriere che permettano il confinamento dei
processi biochimici, affinché questi possano svolgersi separatamente, e
permettano di scambiare le sostanze in modo selettivo, lasciando
entrare le materie prime e facendo uscire i prodotti. Queste barriere
sono le membrane biologiche..
11/29/16Informatica Umanistica e Web Science 2016 S.Lariccia Sapienza
2.9
10. Concetti di base: Informazione da Shannon a
Floridi
• Informazione , Energia Materia: un trinomio dinamico fondamentale (fonte:
•
• L'informazione matematica[modifica]
• Le informazioni sono quantificabili: possono essere codificate, immagazzinate,
sommate. Queste e altre proprietà vengono considerate sotto un punto di vista
matematico dalla TMC (teoria matematica della conoscenza) ideata da Claude
Shannon.
• Principalmente, essa si occupa di codificare le informazioni, in modo da evitare il
deficit dei dati conosciuto anche con il termine di “incertezza”: esso si presenta
quando un dispositivo può produrre più simboli che il destinatario non può
conoscere prima della loro trasmissione.
• Nella codificazione giocano un ruolo importante ridondanza e rumore: la prima
riguarda la trasmissione matematica (in bit) di un certo dato, la seconda il carico
delle informazioni inviate non volutamente.
11/29/16Informatica Umanistica e Web Science 2016 S.Lariccia Sapienza
2.10
11. Concetti di base: Informazione da Shannon a
Floridi
• Informazione , Energia Materia: un trinomio dinamico fondamentale
(fonte:
•
• L'informazione matematica[modifica]
• L’informazione considerata da Shannon prende anche il nome
di “entropia”, dal suggerimento di John von Neumann. Essa indica:
• la quantità di informazione prodotta da un simbolo,
• il conseguente deficit generato da essa,
• il valore informativo di essa.
11/29/16Informatica Umanistica e Web Science 2016 S.Lariccia Sapienza
2.11
12. Concetti di base: Informazione da Shannon a
Floridi
• Informazione , Energia Materia: un trinomio dinamico fondamentale (fonte: wikibooks
Filosofia dell'informatica/Teorie filosofiche del digitale
• Incertezza / significato
• Le premesse (e quindi che probabilità) possono corrispondere sia la vero che al falso nei
riguardi di un fatto. Quindi, nonostante esse potrebbero non includere in sé i giusti termini
per la conclusione cui si fa riferimento, risultano ugualmente necessarie per la
formulazione di essa: è questo lo scandalo. Sta di fatto che più possibilità vi sono rispetto
ad un fatto, meno informazioni giuste si hanno su di esso.
• Di conseguenza, meno possibilità vi sono rispetto ad un fatto, più informazioni giuste si hanno
su di esso. Logicamente parlando, questo assunto è traducibile nella relazione p=1. In
matematica però esso può procedere anche in p=0. La problematica è proprio in questo: 0
indica o una situazione o impossibile o contraddittoria, ed è quello che il paradosso di Bar-
Hillel-Carnap sottolinea. Per evitare di intaccare il sistema matematico (che in tal modo
ammetterebbe una realtà contraddittoria), la soluzione può trovarsi facendo ritorno
all’ambito semantico: infatti un’informazione è definita semantica quando fa riferimento al
vero, alla realtà effettiva, la quale esclude a priori aspetti di contraddittorietà.[13]
•
11/29/16Informatica Umanistica e Web Science 2016 S.Lariccia Sapienza
2.12
13. Concetti di base: Informazione da Shannon a
Floridi
• Informazione , Energia Materia: un trinomio dinamico fondamentale (fonte: wikibooks
Filosofia dell'informatica/Teorie filosofiche del digitale
• Incertezza / significato
• Le premesse (e quindi che probabilità) possono corrispondere sia la vero che al falso nei
riguardi di un fatto. Quindi, nonostante esse potrebbero non includere in sé i giusti termini
per la conclusione cui si fa riferimento, risultano ugualmente necessarie per la
formulazione di essa: è questo lo scandalo. Sta di fatto che più possibilità vi sono rispetto
ad un fatto, meno informazioni giuste si hanno su di esso.
• Di conseguenza, meno possibilità vi sono rispetto ad un fatto, più informazioni giuste si hanno
su di esso. Logicamente parlando, questo assunto è traducibile nella relazione p=1. In
matematica però esso può procedere anche in p=0. La problematica è proprio in questo: 0
indica o una situazione o impossibile o contraddittoria, ed è quello che il paradosso di Bar-
Hillel-Carnap sottolinea. Per evitare di intaccare il sistema matematico (che in tal modo
ammetterebbe una realtà contraddittoria), la soluzione può trovarsi facendo ritorno
all’ambito semantico: infatti un’informazione è definita semantica quando fa riferimento al
vero, alla realtà effettiva, la quale esclude a priori aspetti di contraddittorietà.[13]
•
11/29/16Informatica Umanistica e Web Science 2016 S.Lariccia Sapienza
2.13
14. Concetti di base: Teorie del Calcolo
Universale
• Informazione , Energia Materia: un trinomio dinamico fondamentale
(fonte: wikibooks Filosofia dell'informatica/Teorie filosofiche del
digitale
• Visioni e futurologia basate sulle teorie del calcolo universale
• 1.1 EdwardFredkin
• 1.2 GregoryChaitin
• 1.3 StephenWolfram
• 1.4 SethLloyd
• 1.5 EricSteinhart
• 1.6 KevinKelly
•
•
11/29/16Informatica Umanistica e Web Science 2016 S.Lariccia Sapienza
2.14
15. Concetti di base: Teorie del Calcolo
Universale
• Informazione , Energia Materia: un trinomio dinamico fondamentale
(fonte: wikibooks Filosofia dell'informatica/Teorie filosofiche del
digitale
• Visioni e futurologia basate sulle teorie del calcolo universale
• 1.1 EdwardFredkin
• 1.2 GregoryChaitin
• 1.3 StephenWolfram
• 1.4 SethLloyd
• 1.5 EricSteinhart
• 1.6 KevinKelly
•
•
11/29/16Informatica Umanistica e Web Science 2016 S.Lariccia Sapienza
2.15