Quello che si presenta è l'applicazione del progetto MAPPA al medioevo, ma potrebbe essere ugualmente applicato ad altri periodi storici, e ne dimostra l'efficacia. Nell’ultimo decennio sono stati prodotti una grande mole di dati archeologici, spesso in formato digitale, che sono andati ad aggiungersi alle sterminate documentazioni analogiche di scavo prodotte negli ultimi 40 anni, spesso al solo scopo di giacere inutilizzati negli archivi. Assistiamo al paradosso di possedere potenti strumenti di calcolo informatico, ma pochi dati da processare, di produrre con costi molto elevati nuovi dati, per farne un uso limitato nel migliore dei casi a pochi o pochissimi riutilizzi. È uno spreco sia in termini economici, sia per la ricerca, sia per la tutela. In questo intervento cercherò di dimostrare come un approccio collaborativo tra tutti gli operatori archeologici (professionisti, funzionari, ricercatori) che porti alla condivisione di grandi quantità di dati aperti (big data), da poter riutilizzare liberamente attraverso l’uso di analisi spaziali, analisi statistiche e modelli predittivi, possa portare l’archeologia medievale verso nuovi modelli interpretativi e filoni di ricerca, basati sempre più sulla fonte archeologica, e verso un approccio più scientifico che consenta di verificare compiutamente le ipotesi prodotte. Per dimostrarlo mi servirò del caso studio di Pisa, dove il progetto Mappa (www.mappaproject.org) ha dapprima reso disponibili sia alla semplice consultazione (tramite il webGIS MappaGIS), sia al riuso come open data (tramite il MOD, Mappa Open Data) una grande quantità di dati, quindi ha realizzato un modello matematico per il calcolo predittivo del potenziale archeologico che fosse pensato da e per gli archeologi e servisse sia per la tutela, sia per la ricerca. Proprio attraverso il processamento di grandi quantità di dati e l’applicazione dei modelli predittivi è stata possibile una nuova lettura archeologica della città medievale.