SlideShare a Scribd company logo
1 of 32
Personalizzazione e privacy:
 I rischi e le soluzioni legate alla Privacy
 nei sistemi di personalizzazione.




  Nikola Gluhovic, Monica Menoncin e Karim Abdeselam Canales
Laurea Magistrale in Informatica – Corso di Sistemi Context Aware
Indice
   Introduzione

   Nuove sfide legate alla privacy

   Le metodologie per ridurre i rischi legati alla
    privacy

   Framework su rischi e soluzioni

   Bibliografia
Introduzione
Introduzione
   Il WEB è diventato...
    ◦ Più social
    ◦ Più mobile
   La personalizzazione ha ampliato e complicato i
    rischi e le preoccupazioni per la privacy:
    ◦ Informazini imbarazzanti
    ◦ Servizi Web  November 2007 “Facebook
       Beacon,” [Story and Stone 2007]
   Survey:
    ◦ Le preoccupazioni per la privacy sono cresciute
       significativamente tra il 2002 e il 2008 [Anton
       et al. (2010)] 8.
    ◦ Il 66% degli americani non vuole pubblicità
       personalizzata [Turow et al. (2009)]
Nuove sfide legate alla privacy
Social-based personalization (1/4)
   Vengono utilizzate le informazioni dei SNS (social network system come
    ad es: Facebook, Twitter) nei servizi di customization, social search e
    online marketing.

   Implementare la privacy mantenendo la personalizzazione è una grande
    sfida siccome gli SNS includono:
     Informazioni sensibili sull’utente (Ex: rilevanti informazioni private)
     Informazioni sensibili dei suoi amici.
     Informazioni che possono creare imbarazzo all’utente.

   Le conseguenze possono essere critiche:
         (Forrester Consulting 2008). Nel 2008 l’8% delle compagnie
         USA con più di 1000 lavoratori hanno licenziato basandosi
         sulle informazioni provenienti da social network.

   Survey di esempio su Facebook:
         (Story and Stone 2007)  Facebook Beacon
         (Helft and Wortham 2010)  personalizzazione istantanea
Social-based personalization (2/4)
   Importante problema riguarante l’utilizzo da
    parte di terze parti delle informazioni dei
    SNS.




   Esempi:
     (Helft and Wortham 2010).  Facebook Connect
     (Bonneau and Preibusch 2009)  relativa facilità d’accesso verso
      le API dei social network pone problemi di privacy per gli utenti.
     (Heymann et al.2008; Dalal 2007), (Paliouras 2012), (Google
      2011)  Google +1 e Microsoft Bing
Social-based personalization (3/4)
   Crescente sensibilità verso la privacy negli
    SNS nel corso del tempo:
    ◦ Nel 2006 gli utenti di facebook si preoccupano
      della loro privacy anche se solo una piccola
      minoranza protegge il proprio profilo pubblico.
      (Acquisti and Gross 2006).
    ◦ Nel 2010 la maggioranza degli utenti ha profili
      accessibili solo dagli amici. (Stutzman and Kramer-
      Duffield 2010).


   Altre Survey ed Esempi:
     (Lewis et al. 2008)  preoccupazioni sulla privacy 
      quando le attività si svolgono sui social network 
Social-based personalization (4/4)

   Informazioni private possono inavvertitamente
    essere condivise sui social network.

   Esempi:
     (Lampinen et al. 2009)  condivisione delle informazioni senza
      preavviso all’utente.
     (Mullins 2010)  contatti di Gmail attraverso Google Buzz
     (Palen and Dourish 2003)  controllo della persona pubblica
     (Nissenbaum 2004)  norme sociali

   Ma non tutti gli SNS si comportano allo stesso modo:
         (Bonneau and Preibusch 2009), Dwyer et al. (2007), Wang et al. (2011)
Behavioral profiling and data
                     aggregation (1/2)
   “è la pratica di raccogliere dati longitudinali sulle attività di una persona e adattare l'esperienza degli
    utenti sulla base di quelle attività”


 Il sistema tiene traccia dei comportamenti
  degli utenti con poco o anche senza il loro
  consenso.
 La profilazione comportamentale pone diversi
  rischi potenziali per la privacy.
 Esempi:
     (Federal Trade Commission 2009)  raccolta di dati
     (Culnan and Milne 2001)  marketing indesiderato per gli utenti
      che usano lo stesso computer
     (McDonald and Cranor 2010).  sensazione di essere osservati e
      monitorati
Behavioral profiling and data
                  aggregation (2/2)
   Altri problemi: percezione contradittoria degli utenti per esempio riguardo al
    Collaborative Filtering (CF):
    ◦ Solo il 28% trova confortevole che gli inserizionisti utilizzino la cronologia del
       web browser. Il 35% crede che la propria privacy sia stata violata nel corso
       degli ultimi 2 anni grazie alle informazioni su internet, anche quando la
       cronologia di navigazione non è legata al loro nome reale. (TRUSTe and TNS
       2009)
    ◦ Il 66% degli adulti non vuole pubblicità personalizzata. Questa stima sale
       all’86% quando i partecipanti vengono informati delle tecniche come l’utilizzo
       di cookie di terze parti. (Turow et al. 2009)

   Esempi:
     (Schafer et al. 2007), (Cranor 2003), Nissenbaum (2004).  A proposito di
       sistemi CF
     (Culnan and Milne 2001)  ostacoli tecnologici
     Mehta (2006, 2007). campi di descrizione semantica o algoritmi di
       apprendimento automatico
     (Tsai et al. 2011)  Le preoccupazione sulla privacy cambiano il
       comportamento degli utenti e degli inserzionisti
Location-based personalization
   Adozione di smarphone dotati di GPS e Wi-Fi ed incremento della
    larghezza di banda.
   L’evoluzione dei dispositivi mobili offre una migliore localizzazione e
    servizi basati sulla posizione fisica degli utenti.
   La locazione fisica è utilizzata in molti modi durante la
    personalizzazione:
     Aumenta la personalizzazione dei risultati di ricerca
     Servizi di E-commerce
     Altri servizi (ricerca di venditori, annunci personali, meteo…)

   Esempi:
     Tsai et al. (2010) varie preoccupazioni riguardo ai servizi di locazione: l’essere
      perseguitati, l’essere seguiti dal capo, l’essere seguiti dal governo e rivelare la locazione della
      propria abitazione.
     Benisch et al. (2011) metodi valutati empiricamente per il controllo della privacy in scenari di
      condivisione della posizione  tempo e locazione diventano più privati.
     Toch et al. (2010) modelli per la privacy nelle applicazioni che condividono la posizione 
      poco confortevoli nel condividere posti meno frequentati.
Le metodologie per ridurre i
rischi legati alla privacy
Ridurre i rischi sulla Privacy
 Vengono proposti molti metodi nella
  letteratura che possono essere utilizzati
  per ridurre i rischi legati alla privacy.
 Il problema non viene eliminato, ogni
  metodo proposto deve essere rapportato
  con l’efficacia del sistema di
  personalizzazione.
Pseudonymous personalization (1/2)
   Viene utilizzato uno pseudonimo al posto
    dell’identità reale delle persone

   Le attività online vengono tracciate su questo
    pseudonimo.

   Una persona può avere diversi pseudonimi in
    base all’attività (es: lavoro o multimedialità).

   In realtà non è una soluzione molto efficacie: si
    può risalire all’identità delle persone.
Pseudonymous personalization (2/2)
         Esempio sul rischio privacy
    Possibilità di trovare l’identità di una persona associando i dati in comune, in
    questo caso tramite il CAP, la data di nascita ed il sesso. [Sweeney, 2002]


 A destra i dati medici del
  Group Insurance
  Commission (GIC),
  Massachusetts venduti
  all’industria e donati ai
  ricercatori.
 A sinistra i dati dei votanti
  della città di Cambridge,
  Massachusetts.
  Attualmente disponibile al
  prezzo di 20 dollari.
Client-side personalization
   I dati dell’utente sono memorizzati nel client ed anche
    il processo di personalizzazione avviene nel client.
    Esempio: WHAT (Web Host Access Tool)
    [Cassel, 2001].

   L’utente pensa di aver più controllo sui suoi dati e
    meno problemi di privacy.

   Problemi: gli attuali sistemi di personalizzazione devono
    essere riprogettati per funzionare a livello client e
    devono essere protette le logiche di business utilizzate
    in questi sistemi.

   Problema aggiuntivo: il livello client-side è meno
    protetto da minacce rispetto al server-side.
Distribution personalization
 I dati degli utenti
  vengono distribuiti
  attraverso le macchine
  locali.
 Il sistema ricava i dati
  degli altri utenti tramite
  una rete p2p.
 Viene preservata la
  privacy siccome i dati
  degli altri utenti, una
  volta aggiornato il
  modello dell’utente
  locale, vengono scartati.    PocketLens [Miller et al. 2004]
Perturbation and Obfuscation
                   personalization
   Il metodo di perturbazione
    consiste nel modificare i
    dati degli utenti
    alternandoli prima di
    inviarli al database
    centrale. [Polat and Du
    2003]

   Il metodo di offuscamento
    prevede il rimpiazzo con
    dati random di una certa
    percentuale di dati di ogni
    utente. [Berkovsky, 2005]



    In questi due casi diventa più difficile identificare gli utenti mantenendo
    comunque l’efficacia dei sistemi di personalizzazione.
User controls personalization (1/2)
   Scrutability: dare all’utente la possibilità di capire e
    controllare gli aspetti del proprio user model. In altre parole
    l’utente può decidere quali informazioni sono a disposizione
    dei vari servizi e come esse sono utilizzate e mantenute.



                                        Associare data di scadenza
    Sistema
    Personis          Evidenze           Compattare
    [Kay et al.
    2003]
                                        Trasformare


                                         Restringere
User controls personalization (2/2)
   Do-not-track: si tratta di aggiungere un
    parametro all’HTTP header per specificare la
    volontà di non essere tracciati. [Mayer and
    Narayanan 2011)]

   User-controllable policy learning : sistema che
    utilizza tecniche di machine learning per
    predire le preferenze di un’utente sulla base
    delle sue decisioni sulla privacy. Nello specifico
    il sistema suggerisce impostazioni sulla privacy
    e l’utente deve decidere se accettarle o meno.
    [Kelley et al. 2008]
Framework su rischi e
     soluzioni
In sintesi
 Le nuove tecnologie presentate hanno
  vari impatti sulla privacy
 Un framework può aiutare a
  comprendere meglio le nuove sfide e a
  modellare approcci migliorativi della
  privacy.
La privacy nelle fasi di personalizzazione
     Raccolta dati
      ◦ Es.: localizzazione
     Creazione di un modello utente
      ◦ Es.: collaborative filtering e machine learning
        , abitudine delle aziende di scambiarsi i dati
     Adattamento
      ◦ Es.: le nuove tecnologie di personalizzazione
        distribuiscono il contenuto personalizzato e
        adattato per tutto il WEB

      [Kobsa ( 2001 , 2007a)]
Controllo della privacy
 Le tecnologie che limitano il controllo
  dell’utente sulla sua privacy sono
  percepite come più intrusive [Awad and
  Krishnan (2006)]
 Le tecnologie basate su un alto livello di
  automazione pongono maggiori rischi per
  la privacy degli utenti
Framework

                                                    Automatic
   Data       User –provided     Tracking user
                                                     context
 collection    information          actions
                                                   information


 User Model   Inference-based   Inference-based    Collaborative
  Creation         analysis          analysis        analysis


                                To user’s social   To the World
 Adaptation    Only to user
                                   relation         Wide Web



               More user                            Less user
               control                              control
Progettare sistemi di personalizzazione
     Nella fase di progettazione dei sistemi si
      possono distinguere due tipi di approcci
      ingegneristici al problema della privacy
      [Spiekermann and Cranor (2009)]
      ◦ Privacy-by-policy:
         Si focalizza sull’implementazione dei principi di notifica e
          scelta
         Es.: Do-not-track
      ◦ Privacy-by-architecture:
         Minimizzano la raccolta di dati personali
         Enfatizzano l’anonimato e il processo e la conservazione
          dei dati lato client
         Es.: WHAT
Progettare sistemi di personalizzazione
                 Privacy-by- architecture                     Privacy-by-policy



 Data                           Client-based
                                                                    Do-not-track
 collection                     Personalization

                                Distributed CF

                                Encrypted
 User                           aggregation                         Configurable user
 Model        Pseudonymous                        Scrutable         modeling
 Creation     personalization   Perturbation      personalization
                                and
                                obfuscation



                                                                    Social network privacy
 Adaptation                                                         controls
Alcune note
 C’è un tradeoff tra l’utilità del sistema
  percepita dall’utente e le preoccupazioni
  per la propria privacy
 Le attuali impostazioni della privacy per i
  SNS possono essere usate per limitare
  l’accesso al contenuto personale, ma non
  controllano la distribuzione
Cosa riserva il futuro
E’ difficile fare previsioni, ma il framework
proposto aiuta ad analizzare quale può essere
l’impatto sulla privacy e come attenuarlo.
Data collection: riconoscimento dei volti
   (www.face.com)
User model creation: più la predizione è
   accurata più crescono le preoccupazioni per
   la privacy
Adaptation: SNS e CIF potrebbero comunicare
   informazioni sensibili ai contatti
Bibliografia
Riferimenti
 Articolo di riferimento di tutta la
  presentazione: Personalization and
  privacy: a survey of privacy risks and
  remedies in personalization-based
  systems [Eran Toch · Yang Wang · Lorrie
  Faith Cranor, 2012]
 Tutti gli altri riferimenti utilizzati si
  trovano all’interno dello stesso articolo.

More Related Content

Viewers also liked

Il Privacy Officer, professionista con competenze giuridiche o informatiche?
Il Privacy Officer, professionista con competenze giuridiche o informatiche?Il Privacy Officer, professionista con competenze giuridiche o informatiche?
Il Privacy Officer, professionista con competenze giuridiche o informatiche?festival ICT 2016
 
Privacy e lavoro vademecum 2015 del Garante
Privacy e lavoro   vademecum 2015 del GarantePrivacy e lavoro   vademecum 2015 del Garante
Privacy e lavoro vademecum 2015 del GaranteUneba
 
Lezione 07 2015-2016 Privacy-riservatezza-dati personali
Lezione 07 2015-2016 Privacy-riservatezza-dati personaliLezione 07 2015-2016 Privacy-riservatezza-dati personali
Lezione 07 2015-2016 Privacy-riservatezza-dati personaliFederico Costantini
 
Il sito aziendale (parte 2): pianificazione, struttura, design, funzionalità ...
Il sito aziendale (parte 2): pianificazione, struttura, design, funzionalità ...Il sito aziendale (parte 2): pianificazione, struttura, design, funzionalità ...
Il sito aziendale (parte 2): pianificazione, struttura, design, funzionalità ...Giovanni Dalla Bona
 
Google Glass & Privacy: quali i rischi futuri per i nostri dati personali?
Google Glass & Privacy: quali i rischi futuri per i nostri dati personali?�Google Glass & Privacy: quali i rischi futuri per i nostri dati personali?�
Google Glass & Privacy: quali i rischi futuri per i nostri dati personali?Marco Giacomello
 
Privacy & Facebook | BTO 2016 | Monica Gobbato
Privacy & Facebook | BTO 2016 | Monica GobbatoPrivacy & Facebook | BTO 2016 | Monica Gobbato
Privacy & Facebook | BTO 2016 | Monica GobbatoBTO Educational
 
Unolegal TOOL (Privacy Day 2016)
Unolegal TOOL (Privacy Day 2016)Unolegal TOOL (Privacy Day 2016)
Unolegal TOOL (Privacy Day 2016)Sistemi UNO
 
Privacy, Tutela dei Dati Personali e D.P.S.
Privacy, Tutela dei Dati Personali e D.P.S.Privacy, Tutela dei Dati Personali e D.P.S.
Privacy, Tutela dei Dati Personali e D.P.S.Boris Amico
 
Privacy su Facebook: la pubblicazione di immagini e foto sulla facebook fanpage
Privacy su Facebook: la pubblicazione di immagini e foto sulla facebook fanpagePrivacy su Facebook: la pubblicazione di immagini e foto sulla facebook fanpage
Privacy su Facebook: la pubblicazione di immagini e foto sulla facebook fanpageTeamwork Rimini
 
Introduzione al Social Media Marketing
Introduzione al Social Media MarketingIntroduzione al Social Media Marketing
Introduzione al Social Media MarketingGiovanni Dalla Bona
 
Internet-of-things, sicurezza, privacy, trust
Internet-of-things, sicurezza, privacy, trustInternet-of-things, sicurezza, privacy, trust
Internet-of-things, sicurezza, privacy, trustDavide Carboni
 
Piano di branding per la Food and Wine Academy del Gambero Rosso
Piano di branding per la Food and Wine Academy del Gambero RossoPiano di branding per la Food and Wine Academy del Gambero Rosso
Piano di branding per la Food and Wine Academy del Gambero RossoMasterBrandManagement
 
Corso privacy unità 1
Corso privacy unità 1Corso privacy unità 1
Corso privacy unità 1Confimpresa
 
Il mondo dei social network: opportunità e rischi
Il mondo dei social network: opportunità e rischiIl mondo dei social network: opportunità e rischi
Il mondo dei social network: opportunità e rischiGianluigi Bonanomi
 
Web marketing e privacy
Web marketing e privacyWeb marketing e privacy
Web marketing e privacyGiorgio Trono
 

Viewers also liked (17)

Il Privacy Officer, professionista con competenze giuridiche o informatiche?
Il Privacy Officer, professionista con competenze giuridiche o informatiche?Il Privacy Officer, professionista con competenze giuridiche o informatiche?
Il Privacy Officer, professionista con competenze giuridiche o informatiche?
 
Privacy e lavoro vademecum 2015 del Garante
Privacy e lavoro   vademecum 2015 del GarantePrivacy e lavoro   vademecum 2015 del Garante
Privacy e lavoro vademecum 2015 del Garante
 
Lezione 07 2015-2016 Privacy-riservatezza-dati personali
Lezione 07 2015-2016 Privacy-riservatezza-dati personaliLezione 07 2015-2016 Privacy-riservatezza-dati personali
Lezione 07 2015-2016 Privacy-riservatezza-dati personali
 
Il sito aziendale (parte 2): pianificazione, struttura, design, funzionalità ...
Il sito aziendale (parte 2): pianificazione, struttura, design, funzionalità ...Il sito aziendale (parte 2): pianificazione, struttura, design, funzionalità ...
Il sito aziendale (parte 2): pianificazione, struttura, design, funzionalità ...
 
Google Glass & Privacy: quali i rischi futuri per i nostri dati personali?
Google Glass & Privacy: quali i rischi futuri per i nostri dati personali?�Google Glass & Privacy: quali i rischi futuri per i nostri dati personali?�
Google Glass & Privacy: quali i rischi futuri per i nostri dati personali?
 
Privacy & Facebook | BTO 2016 | Monica Gobbato
Privacy & Facebook | BTO 2016 | Monica GobbatoPrivacy & Facebook | BTO 2016 | Monica Gobbato
Privacy & Facebook | BTO 2016 | Monica Gobbato
 
Unolegal TOOL (Privacy Day 2016)
Unolegal TOOL (Privacy Day 2016)Unolegal TOOL (Privacy Day 2016)
Unolegal TOOL (Privacy Day 2016)
 
Privacy, Tutela dei Dati Personali e D.P.S.
Privacy, Tutela dei Dati Personali e D.P.S.Privacy, Tutela dei Dati Personali e D.P.S.
Privacy, Tutela dei Dati Personali e D.P.S.
 
Privacy su Facebook: la pubblicazione di immagini e foto sulla facebook fanpage
Privacy su Facebook: la pubblicazione di immagini e foto sulla facebook fanpagePrivacy su Facebook: la pubblicazione di immagini e foto sulla facebook fanpage
Privacy su Facebook: la pubblicazione di immagini e foto sulla facebook fanpage
 
Introduzione al Social Media Marketing
Introduzione al Social Media MarketingIntroduzione al Social Media Marketing
Introduzione al Social Media Marketing
 
Internet-of-things, sicurezza, privacy, trust
Internet-of-things, sicurezza, privacy, trustInternet-of-things, sicurezza, privacy, trust
Internet-of-things, sicurezza, privacy, trust
 
Web e Social Media:rischi e opportunità
Web e Social Media:rischi e opportunitàWeb e Social Media:rischi e opportunità
Web e Social Media:rischi e opportunità
 
Piano di branding per la Food and Wine Academy del Gambero Rosso
Piano di branding per la Food and Wine Academy del Gambero RossoPiano di branding per la Food and Wine Academy del Gambero Rosso
Piano di branding per la Food and Wine Academy del Gambero Rosso
 
Corso privacy unità 1
Corso privacy unità 1Corso privacy unità 1
Corso privacy unità 1
 
Il mondo dei social network: opportunità e rischi
Il mondo dei social network: opportunità e rischiIl mondo dei social network: opportunità e rischi
Il mondo dei social network: opportunità e rischi
 
Web marketing e privacy
Web marketing e privacyWeb marketing e privacy
Web marketing e privacy
 
The Hierarchy of Engagement
The Hierarchy of EngagementThe Hierarchy of Engagement
The Hierarchy of Engagement
 

Similar to Personalization and privacy

Big Data per Madee 7 at Digital Accademia
Big Data per Madee 7 at Digital AccademiaBig Data per Madee 7 at Digital Accademia
Big Data per Madee 7 at Digital AccademiaGianluigi Cogo
 
Digital Transformation: Big Data, User Targeting ed Etica - Project Work Mast...
Digital Transformation: Big Data, User Targeting ed Etica - Project Work Mast...Digital Transformation: Big Data, User Targeting ed Etica - Project Work Mast...
Digital Transformation: Big Data, User Targeting ed Etica - Project Work Mast...Free Your Talent
 
Cittadini e mondo digitale.pdf
Cittadini e mondo digitale.pdfCittadini e mondo digitale.pdf
Cittadini e mondo digitale.pdfssuser965f2f
 
iDialoghi - Social Media Security Management
iDialoghi - Social Media Security Management iDialoghi - Social Media Security Management
iDialoghi - Social Media Security Management iDIALOGHI
 
#Ready4EUdataP Profilazione versus Anonimizzazione Stefano Tagliabue
#Ready4EUdataP Profilazione versus Anonimizzazione Stefano Tagliabue#Ready4EUdataP Profilazione versus Anonimizzazione Stefano Tagliabue
#Ready4EUdataP Profilazione versus Anonimizzazione Stefano TagliabueEuroPrivacy
 
Webinar sicurezza nei social network
Webinar  sicurezza nei social networkWebinar  sicurezza nei social network
Webinar sicurezza nei social networkMatteo Barberi
 
Approfondimento sui Big Data
Approfondimento sui Big DataApprofondimento sui Big Data
Approfondimento sui Big DataMartinaSalvini
 
Ricerca immaginaria su un nuovo social
Ricerca immaginaria su un nuovo socialRicerca immaginaria su un nuovo social
Ricerca immaginaria su un nuovo socialDonato Nicolò Daniele
 
Extended Summary of “What Twitter Knows: Characterizing Ad Targeting Practice...
Extended Summary of “What Twitter Knows: Characterizing Ad Targeting Practice...Extended Summary of “What Twitter Knows: Characterizing Ad Targeting Practice...
Extended Summary of “What Twitter Knows: Characterizing Ad Targeting Practice...GabrieleMorelli4
 
Presentazione bigdata Madee
Presentazione bigdata MadeePresentazione bigdata Madee
Presentazione bigdata MadeeGianluigi Cogo
 
Summary of - measuring the facebook advertising ecosystem
Summary of - measuring the facebook advertising ecosystemSummary of - measuring the facebook advertising ecosystem
Summary of - measuring the facebook advertising ecosystemeugenioceschia
 
Tim Berners-Lee, la logica servicedominant ed il Candido di Voltaire principi...
Tim Berners-Lee, la logica servicedominant ed il Candido di Voltaire principi...Tim Berners-Lee, la logica servicedominant ed il Candido di Voltaire principi...
Tim Berners-Lee, la logica servicedominant ed il Candido di Voltaire principi...eraser Juan José Calderón
 
Una finestra sul futuro: il Web 3.0
Una finestra sul futuro: il Web 3.0Una finestra sul futuro: il Web 3.0
Una finestra sul futuro: il Web 3.0KEA s.r.l.
 
Difendere e far crescere il valore dei dati personali
Difendere e far crescere il valore dei dati personaliDifendere e far crescere il valore dei dati personali
Difendere e far crescere il valore dei dati personaliAccenture Italia
 
Semantic Holistic User Modeling for Personalized Access to Digital Content an...
Semantic Holistic User Modeling for Personalized Access to Digital Content an...Semantic Holistic User Modeling for Personalized Access to Digital Content an...
Semantic Holistic User Modeling for Personalized Access to Digital Content an...Cataldo Musto
 

Similar to Personalization and privacy (20)

Pescara 19 Giugno Bis
Pescara 19 Giugno BisPescara 19 Giugno Bis
Pescara 19 Giugno Bis
 
Big Data per Madee 7 at Digital Accademia
Big Data per Madee 7 at Digital AccademiaBig Data per Madee 7 at Digital Accademia
Big Data per Madee 7 at Digital Accademia
 
Digital Transformation: Big Data, User Targeting ed Etica - Project Work Mast...
Digital Transformation: Big Data, User Targeting ed Etica - Project Work Mast...Digital Transformation: Big Data, User Targeting ed Etica - Project Work Mast...
Digital Transformation: Big Data, User Targeting ed Etica - Project Work Mast...
 
Cittadini e mondo digitale.pdf
Cittadini e mondo digitale.pdfCittadini e mondo digitale.pdf
Cittadini e mondo digitale.pdf
 
iDialoghi - Social Media Security Management
iDialoghi - Social Media Security Management iDialoghi - Social Media Security Management
iDialoghi - Social Media Security Management
 
#Ready4EUdataP Profilazione versus Anonimizzazione Stefano Tagliabue
#Ready4EUdataP Profilazione versus Anonimizzazione Stefano Tagliabue#Ready4EUdataP Profilazione versus Anonimizzazione Stefano Tagliabue
#Ready4EUdataP Profilazione versus Anonimizzazione Stefano Tagliabue
 
Webinar sicurezza nei social network
Webinar  sicurezza nei social networkWebinar  sicurezza nei social network
Webinar sicurezza nei social network
 
Approfondimento sui Big Data
Approfondimento sui Big DataApprofondimento sui Big Data
Approfondimento sui Big Data
 
Ricerca immaginaria su un nuovo social
Ricerca immaginaria su un nuovo socialRicerca immaginaria su un nuovo social
Ricerca immaginaria su un nuovo social
 
Presentazione google
Presentazione google Presentazione google
Presentazione google
 
Extended Summary of “What Twitter Knows: Characterizing Ad Targeting Practice...
Extended Summary of “What Twitter Knows: Characterizing Ad Targeting Practice...Extended Summary of “What Twitter Knows: Characterizing Ad Targeting Practice...
Extended Summary of “What Twitter Knows: Characterizing Ad Targeting Practice...
 
Social Digital Services
Social Digital ServicesSocial Digital Services
Social Digital Services
 
Presentazione bigdata Madee
Presentazione bigdata MadeePresentazione bigdata Madee
Presentazione bigdata Madee
 
Summary of - measuring the facebook advertising ecosystem
Summary of - measuring the facebook advertising ecosystemSummary of - measuring the facebook advertising ecosystem
Summary of - measuring the facebook advertising ecosystem
 
Tim Berners-Lee, la logica servicedominant ed il Candido di Voltaire principi...
Tim Berners-Lee, la logica servicedominant ed il Candido di Voltaire principi...Tim Berners-Lee, la logica servicedominant ed il Candido di Voltaire principi...
Tim Berners-Lee, la logica servicedominant ed il Candido di Voltaire principi...
 
Con04 utilizzo
Con04 utilizzoCon04 utilizzo
Con04 utilizzo
 
Con04 utilizzo
Con04 utilizzoCon04 utilizzo
Con04 utilizzo
 
Una finestra sul futuro: il Web 3.0
Una finestra sul futuro: il Web 3.0Una finestra sul futuro: il Web 3.0
Una finestra sul futuro: il Web 3.0
 
Difendere e far crescere il valore dei dati personali
Difendere e far crescere il valore dei dati personaliDifendere e far crescere il valore dei dati personali
Difendere e far crescere il valore dei dati personali
 
Semantic Holistic User Modeling for Personalized Access to Digital Content an...
Semantic Holistic User Modeling for Personalized Access to Digital Content an...Semantic Holistic User Modeling for Personalized Access to Digital Content an...
Semantic Holistic User Modeling for Personalized Access to Digital Content an...
 

Personalization and privacy

  • 1. Personalizzazione e privacy: I rischi e le soluzioni legate alla Privacy nei sistemi di personalizzazione. Nikola Gluhovic, Monica Menoncin e Karim Abdeselam Canales Laurea Magistrale in Informatica – Corso di Sistemi Context Aware
  • 2. Indice  Introduzione  Nuove sfide legate alla privacy  Le metodologie per ridurre i rischi legati alla privacy  Framework su rischi e soluzioni  Bibliografia
  • 4. Introduzione  Il WEB è diventato... ◦ Più social ◦ Più mobile  La personalizzazione ha ampliato e complicato i rischi e le preoccupazioni per la privacy: ◦ Informazini imbarazzanti ◦ Servizi Web  November 2007 “Facebook Beacon,” [Story and Stone 2007]  Survey: ◦ Le preoccupazioni per la privacy sono cresciute significativamente tra il 2002 e il 2008 [Anton et al. (2010)] 8. ◦ Il 66% degli americani non vuole pubblicità personalizzata [Turow et al. (2009)]
  • 5. Nuove sfide legate alla privacy
  • 6. Social-based personalization (1/4)  Vengono utilizzate le informazioni dei SNS (social network system come ad es: Facebook, Twitter) nei servizi di customization, social search e online marketing.  Implementare la privacy mantenendo la personalizzazione è una grande sfida siccome gli SNS includono:  Informazioni sensibili sull’utente (Ex: rilevanti informazioni private)  Informazioni sensibili dei suoi amici.  Informazioni che possono creare imbarazzo all’utente.  Le conseguenze possono essere critiche: (Forrester Consulting 2008). Nel 2008 l’8% delle compagnie USA con più di 1000 lavoratori hanno licenziato basandosi sulle informazioni provenienti da social network.  Survey di esempio su Facebook: (Story and Stone 2007)  Facebook Beacon (Helft and Wortham 2010)  personalizzazione istantanea
  • 7. Social-based personalization (2/4)  Importante problema riguarante l’utilizzo da parte di terze parti delle informazioni dei SNS.  Esempi:  (Helft and Wortham 2010).  Facebook Connect  (Bonneau and Preibusch 2009)  relativa facilità d’accesso verso le API dei social network pone problemi di privacy per gli utenti.  (Heymann et al.2008; Dalal 2007), (Paliouras 2012), (Google 2011)  Google +1 e Microsoft Bing
  • 8. Social-based personalization (3/4)  Crescente sensibilità verso la privacy negli SNS nel corso del tempo: ◦ Nel 2006 gli utenti di facebook si preoccupano della loro privacy anche se solo una piccola minoranza protegge il proprio profilo pubblico. (Acquisti and Gross 2006). ◦ Nel 2010 la maggioranza degli utenti ha profili accessibili solo dagli amici. (Stutzman and Kramer- Duffield 2010).  Altre Survey ed Esempi:  (Lewis et al. 2008)  preoccupazioni sulla privacy  quando le attività si svolgono sui social network 
  • 9. Social-based personalization (4/4)  Informazioni private possono inavvertitamente essere condivise sui social network.  Esempi:  (Lampinen et al. 2009)  condivisione delle informazioni senza preavviso all’utente.  (Mullins 2010)  contatti di Gmail attraverso Google Buzz  (Palen and Dourish 2003)  controllo della persona pubblica  (Nissenbaum 2004)  norme sociali  Ma non tutti gli SNS si comportano allo stesso modo: (Bonneau and Preibusch 2009), Dwyer et al. (2007), Wang et al. (2011)
  • 10. Behavioral profiling and data aggregation (1/2)  “è la pratica di raccogliere dati longitudinali sulle attività di una persona e adattare l'esperienza degli utenti sulla base di quelle attività”  Il sistema tiene traccia dei comportamenti degli utenti con poco o anche senza il loro consenso.  La profilazione comportamentale pone diversi rischi potenziali per la privacy.  Esempi:  (Federal Trade Commission 2009)  raccolta di dati  (Culnan and Milne 2001)  marketing indesiderato per gli utenti che usano lo stesso computer  (McDonald and Cranor 2010).  sensazione di essere osservati e monitorati
  • 11. Behavioral profiling and data aggregation (2/2)  Altri problemi: percezione contradittoria degli utenti per esempio riguardo al Collaborative Filtering (CF): ◦ Solo il 28% trova confortevole che gli inserizionisti utilizzino la cronologia del web browser. Il 35% crede che la propria privacy sia stata violata nel corso degli ultimi 2 anni grazie alle informazioni su internet, anche quando la cronologia di navigazione non è legata al loro nome reale. (TRUSTe and TNS 2009) ◦ Il 66% degli adulti non vuole pubblicità personalizzata. Questa stima sale all’86% quando i partecipanti vengono informati delle tecniche come l’utilizzo di cookie di terze parti. (Turow et al. 2009)  Esempi:  (Schafer et al. 2007), (Cranor 2003), Nissenbaum (2004).  A proposito di sistemi CF  (Culnan and Milne 2001)  ostacoli tecnologici  Mehta (2006, 2007). campi di descrizione semantica o algoritmi di apprendimento automatico  (Tsai et al. 2011)  Le preoccupazione sulla privacy cambiano il comportamento degli utenti e degli inserzionisti
  • 12. Location-based personalization  Adozione di smarphone dotati di GPS e Wi-Fi ed incremento della larghezza di banda.  L’evoluzione dei dispositivi mobili offre una migliore localizzazione e servizi basati sulla posizione fisica degli utenti.  La locazione fisica è utilizzata in molti modi durante la personalizzazione:  Aumenta la personalizzazione dei risultati di ricerca  Servizi di E-commerce  Altri servizi (ricerca di venditori, annunci personali, meteo…)  Esempi:  Tsai et al. (2010) varie preoccupazioni riguardo ai servizi di locazione: l’essere perseguitati, l’essere seguiti dal capo, l’essere seguiti dal governo e rivelare la locazione della propria abitazione.  Benisch et al. (2011) metodi valutati empiricamente per il controllo della privacy in scenari di condivisione della posizione  tempo e locazione diventano più privati.  Toch et al. (2010) modelli per la privacy nelle applicazioni che condividono la posizione  poco confortevoli nel condividere posti meno frequentati.
  • 13. Le metodologie per ridurre i rischi legati alla privacy
  • 14. Ridurre i rischi sulla Privacy  Vengono proposti molti metodi nella letteratura che possono essere utilizzati per ridurre i rischi legati alla privacy.  Il problema non viene eliminato, ogni metodo proposto deve essere rapportato con l’efficacia del sistema di personalizzazione.
  • 15. Pseudonymous personalization (1/2)  Viene utilizzato uno pseudonimo al posto dell’identità reale delle persone  Le attività online vengono tracciate su questo pseudonimo.  Una persona può avere diversi pseudonimi in base all’attività (es: lavoro o multimedialità).  In realtà non è una soluzione molto efficacie: si può risalire all’identità delle persone.
  • 16. Pseudonymous personalization (2/2) Esempio sul rischio privacy Possibilità di trovare l’identità di una persona associando i dati in comune, in questo caso tramite il CAP, la data di nascita ed il sesso. [Sweeney, 2002]  A destra i dati medici del Group Insurance Commission (GIC), Massachusetts venduti all’industria e donati ai ricercatori.  A sinistra i dati dei votanti della città di Cambridge, Massachusetts. Attualmente disponibile al prezzo di 20 dollari.
  • 17. Client-side personalization  I dati dell’utente sono memorizzati nel client ed anche il processo di personalizzazione avviene nel client. Esempio: WHAT (Web Host Access Tool) [Cassel, 2001].  L’utente pensa di aver più controllo sui suoi dati e meno problemi di privacy.  Problemi: gli attuali sistemi di personalizzazione devono essere riprogettati per funzionare a livello client e devono essere protette le logiche di business utilizzate in questi sistemi.  Problema aggiuntivo: il livello client-side è meno protetto da minacce rispetto al server-side.
  • 18. Distribution personalization  I dati degli utenti vengono distribuiti attraverso le macchine locali.  Il sistema ricava i dati degli altri utenti tramite una rete p2p.  Viene preservata la privacy siccome i dati degli altri utenti, una volta aggiornato il modello dell’utente locale, vengono scartati. PocketLens [Miller et al. 2004]
  • 19. Perturbation and Obfuscation personalization  Il metodo di perturbazione consiste nel modificare i dati degli utenti alternandoli prima di inviarli al database centrale. [Polat and Du 2003]  Il metodo di offuscamento prevede il rimpiazzo con dati random di una certa percentuale di dati di ogni utente. [Berkovsky, 2005] In questi due casi diventa più difficile identificare gli utenti mantenendo comunque l’efficacia dei sistemi di personalizzazione.
  • 20. User controls personalization (1/2)  Scrutability: dare all’utente la possibilità di capire e controllare gli aspetti del proprio user model. In altre parole l’utente può decidere quali informazioni sono a disposizione dei vari servizi e come esse sono utilizzate e mantenute. Associare data di scadenza Sistema Personis Evidenze Compattare [Kay et al. 2003] Trasformare Restringere
  • 21. User controls personalization (2/2)  Do-not-track: si tratta di aggiungere un parametro all’HTTP header per specificare la volontà di non essere tracciati. [Mayer and Narayanan 2011)]  User-controllable policy learning : sistema che utilizza tecniche di machine learning per predire le preferenze di un’utente sulla base delle sue decisioni sulla privacy. Nello specifico il sistema suggerisce impostazioni sulla privacy e l’utente deve decidere se accettarle o meno. [Kelley et al. 2008]
  • 22. Framework su rischi e soluzioni
  • 23. In sintesi  Le nuove tecnologie presentate hanno vari impatti sulla privacy  Un framework può aiutare a comprendere meglio le nuove sfide e a modellare approcci migliorativi della privacy.
  • 24. La privacy nelle fasi di personalizzazione  Raccolta dati ◦ Es.: localizzazione  Creazione di un modello utente ◦ Es.: collaborative filtering e machine learning , abitudine delle aziende di scambiarsi i dati  Adattamento ◦ Es.: le nuove tecnologie di personalizzazione distribuiscono il contenuto personalizzato e adattato per tutto il WEB [Kobsa ( 2001 , 2007a)]
  • 25. Controllo della privacy  Le tecnologie che limitano il controllo dell’utente sulla sua privacy sono percepite come più intrusive [Awad and Krishnan (2006)]  Le tecnologie basate su un alto livello di automazione pongono maggiori rischi per la privacy degli utenti
  • 26. Framework Automatic Data User –provided Tracking user context collection information actions information User Model Inference-based Inference-based Collaborative Creation analysis analysis analysis To user’s social To the World Adaptation Only to user relation Wide Web More user Less user control control
  • 27. Progettare sistemi di personalizzazione  Nella fase di progettazione dei sistemi si possono distinguere due tipi di approcci ingegneristici al problema della privacy [Spiekermann and Cranor (2009)] ◦ Privacy-by-policy:  Si focalizza sull’implementazione dei principi di notifica e scelta  Es.: Do-not-track ◦ Privacy-by-architecture:  Minimizzano la raccolta di dati personali  Enfatizzano l’anonimato e il processo e la conservazione dei dati lato client  Es.: WHAT
  • 28. Progettare sistemi di personalizzazione Privacy-by- architecture Privacy-by-policy Data Client-based Do-not-track collection Personalization Distributed CF Encrypted User aggregation Configurable user Model Pseudonymous Scrutable modeling Creation personalization Perturbation personalization and obfuscation Social network privacy Adaptation controls
  • 29. Alcune note  C’è un tradeoff tra l’utilità del sistema percepita dall’utente e le preoccupazioni per la propria privacy  Le attuali impostazioni della privacy per i SNS possono essere usate per limitare l’accesso al contenuto personale, ma non controllano la distribuzione
  • 30. Cosa riserva il futuro E’ difficile fare previsioni, ma il framework proposto aiuta ad analizzare quale può essere l’impatto sulla privacy e come attenuarlo. Data collection: riconoscimento dei volti (www.face.com) User model creation: più la predizione è accurata più crescono le preoccupazioni per la privacy Adaptation: SNS e CIF potrebbero comunicare informazioni sensibili ai contatti
  • 32. Riferimenti  Articolo di riferimento di tutta la presentazione: Personalization and privacy: a survey of privacy risks and remedies in personalization-based systems [Eran Toch · Yang Wang · Lorrie Faith Cranor, 2012]  Tutti gli altri riferimenti utilizzati si trovano all’interno dello stesso articolo.

Editor's Notes

  1. A me spetta il compito di tirare le somme di quanto abbiamo finora presentato.Come abbiamo visto le tecnologie attuali e quelle future hanno vari impatti sulla privacy. Collocarle all’interno di un framework può aiutare a comprendere meglio e anche a individuare approcci migliorativi
  2. Come abbiamo già sottolienato la privacy è in stretta relazione con la personalizzazione.La personalizzazione è un processo che si può suddividere in tre fasi: Raccolta dati, Creazione del modello utente, adattamentoA ognuna di queste fasi corrispondono dei rischi per la privacy.Per esempio la personalizzazione basata sulla localizzazione comporta dei rischi
  3. A queste considerazioni possiamo aggiungere che l’utente generalmente percepisce come più intrusive tutte quelle tecnologie che limitano il controllo sulla sua privacy. Per esempio un sistema che si basa su dati forniti dall’utente è potenzialmente percepito come meno intrusivo rispetto a uno che raccoglie gli stessi dati in modo automatico.Inoltre maggiore è l’automazione nel controllo della privacy maggiore è il rischio
  4. Quindi in base alle considerzioni precedenti si può costruire il presente framework.
  5. Considerando gli approcci ingegneristici il framework proposto precedentemente può essere così arricchito.Le soluzioni possono esserre classificate in base alla maggiore attenzione che pongono a una delle fasi di costruzione del sistema di personalizzazione.Così una soluzione tipo Do-not-track agisce principalmente nella fase di data collection, perturbation and obfuscation è una tecnica usata nella fase di modellazione del profilo utente.Ci sono poi approcci che sono trasversali alle fasi, come l’uso di uno pseudonimo.
  6. Un paio di considerazioni sulle soluzioni in fase di profilazione e di adaptationUna soluzione solo architetturale in fase di profilazione utente non tiene conto della percezione che l’utente ha dell’utilità del sistema che sta usando.Allo stesso modo un approccio solo by policy nella fase di adaptation non è al momento sufficiente, per esempio nei social network, dove abbiamo visto che alcuni dati sono messi in circolo comunque.