Gibt es im modernen Leben mit Internet, Facebook und
Smartphones noch einen privaten Raum? Was haben wir
Informatiker bisher darunter verstanden und wie sollen
wir den öffentlichen und privaten Raum in Zukunft gestalten?
Der Beitrag fasst zunächst den State-of-the-Art zusammen.
Er zeichnet das bisherige Verständnis von informatischem
Privatheitsschutz als Datenschutz auf der Basis der von
den Juristen vorgegebenen DS-Prinzipien nach, fasst das
bestehende Verständnis unter dem Schlagwort „PEM –
Privacy Enhancing Technology“ zusammen, zeigt einige
nützliche PEM-Tools, weist darauf hin, worauf wir uns
alles verlassen müssen, wenn wir PEM-Tools einsetzen,
und konstatiert, dass PEM im Wesentlichen versagt.
Der Beitrag skizziert dann die modernen Herausforderungen.
Er analysiert die Anforderungen an Privatheit anhand der
Vertrauensrelationen, konstatiert eine Überforderung der
Nutzer und verlangt daher eine Verstärkung von
Gemeinschaftsaufgaben. Er schlägt eine neue Arbeitsteilung
zwischen Nutzern, Anbietern und den IT-Sicherheitsinfra-
struturen vor, stellt zugehörige Forderungen an die Informatik,
insbesondere an die Erfüllung von Gemeinschaftsaufgaben
und stellt das im Aufbau befindliche Konsortialprojekt
„Strukturwandel des Privaten“ (VW-Stiftung) vor.
1. Informatik
Strukturwandel des Privaten
Was können wir Informatiker tun?
!
Fakultätskolloquium FB 5
Universität Stuttgart, 27. Mai 2014
!
R. Grimm
Universität Koblenz-Landau
Fraunhofer Institut SIT
Familie
Freunde
Öffentlichkeit
Staat
Geschäft
Stadtteil
Einkauf
ICH
2. /54R. Grimm, Mai 2014: Informatik und Privatheit
1. Privatheit, was Informatiker darunter verstehen
2. Privacy Enhancing Technology
3. Worauf man sich bei Crypto alles verlassen muss
4. Risikoanalyse der Privatheit
5. Datenschutzfunktionen – was funktioniert und was nicht
6. „Strukturwandel des Privaten“ (VW-Stiftung)
Inhalt
2
3. /54R. Grimm, Mai 2014: Informatik und Privatheit
• Das Nicht-Öffentliche, das Verborgene
• Hannah Ahrendt 1958:
• Zunächst (Antike): Haus und Ökonomie
• Später (Liberalisierung, Ökonomisierung=Veröffentlichung)
• Körperliche Funktionen, Scham (Hannah Ahrendt)
• Die tätige Güte
• Alles was (nur) im Verborgenen gedeihen kann
Privatheit als politischer Begriff
1 2 3 4 5 6
3
4. /54R. Grimm, Mai 2014: Informatik und Privatheit
Privatheit
Familie
Freunde
Öffentlichkeit
Staat
Geschäft
Stadtteil
Einkauf
ICH
Intim-
sphäre
Geschäftsgeheimnis;
Arbeitende u. Kunden als
Bürger
Klassischer Datenschutz;
Gegen dem Staat
(v.a. USA)
Arbeitnehmerrechte;
Verbraucherschutz
1 2 3 4 5 6
4
5. /54R. Grimm, Mai 2014: Informatik und Privatheit
• Das Recht allein gelassen zu werden (USA, 1890)
• Persönlichkeitsrecht GG Art. 1 u. 2
• Post und Fernmeldegeheimnis (Art. 10)
• Unverletzlichkeit der Wohnung (Art. 13)
• Informationelle Selbstbestimmung
• Volkszählung BVerfG 1983
• Online-Überwachung BVerfG 2008
• Vorratsdatenspeicherung EuGH 8.4.2014
• Datenschutz: Recht auf Vertraulichkeit und Integrität
Recht auf Privatheit
1 2 3 4 5 6
5
6. /54R. Grimm, Mai 2014: Informatik und Privatheit
1. Zweckbindung, Erforderlichkeit, Datensparsamkeit
2. Einwilligung, gesetzliche Erlaubnis
3. Transparenz
• Unterrichtung, Auskunft, Löschung, Korrektur
4. Kontrolle (DS-Beauftragte)
5. Vertraulichkeit, Weitergabe an Dritte
!
sind durch informatorische Maßnahmen umsetzbar
Privatheit operationalisiert: DS-Prinzipien
1 2 3 4 5 6
6
8. /54R. Grimm, Mai 2014: Informatik und Privatheit
• Selbst
• Vorsicht bei Datenpreisgabe
• Enthaltsamkeit
• Auswahl (Telegram statt WhatsApp)
• Cookies und Web-Bugs löschen
• E2E-Verschlüsselung
• System
• Datensparsamkeit
• Löschung zweckfremder Daten
• Anonymisierungsdienste
• Unterrichtungs- und Auskunftsdienste
• IPSec, SSL
Selbst- und Systemdatenschutz
1 2 3 4 5 6
8
9. /54R. Grimm, Mai 2014: Informatik und Privatheit
1. Privatheit, was Informatiker darunter verstehen
2. Privacy Enhancing Technology
3. Worauf man sich bei Crypto alles verlassen muss
4. Risikoanalyse der Privatheit
5. Datenschutzfunktionen – was funktioniert und was nicht
6. „Strukturwandel des Privaten“ (VW-Stiftung)
Inhalt
9
10. /54R. Grimm, Mai 2014: Informatik und Privatheit
• Im Gegensatz zu PIT – Privacy Invading Technologies
• Vermutlich von EPIC (1994) – Electronic Privacy Information Center
(Marc Rotenberg)
• Alle IT,
• die System- und Selbstdatenschutz unterstützt
• die PIT bekämpft
PET: Privacy Enhancing Technology
1 2 3 4 5 6
10
11. /54R. Grimm, Mai 2014: Informatik und Privatheit
1. Kommunikation mit Nutzern
2. Tools für Verschlüsselung
3. Tools für Anonymität und Pseudonymität
4. Filter-Tools
5. Policy-Tools
!
!
6. Rechtemanagement
PET Typologie
Vgl. Köhntopp/Köhntopp 2000 und Köhntopp/Pfitzmann 2000
1 2 3 4 5 6
11
12. /54R. Grimm, Mai 2014: Informatik und Privatheit
• Transparenz: Unterrichtung des Nutzers vor Dienst
• Choice/Consent: Einwilligung des Nutzers vor Dienst
• Nutzerkontrolle: Jederzeit durch Nutzer / Kontrolleur
Lesen, Ändern, Löschen
!
• Dienst an Nutzer: Anbieten, abrechnen, liefern, u.a., bes. LBS
• Nutzer an Dienst: Browsen, bestellen, bezahlen, u.a.
2.1 Kommunikation mit Nutzern
1 2 3 4 5 6
12
17. /54R. Grimm, Mai 2014: Informatik und Privatheit
• In der Einwilligung
• Besonders für mobile Apps
!
z.B.
• App Permission Watcher - Darstellung der Rechte
• SRT AppGuard - aktives Rechtemanagement: via App
2.6 Rechtemanagement
1 2 3 4 5 6
17
18. /54R. Grimm, Mai 2014: Informatik und Privatheit
1. Privatheit, was Informatiker darunter verstehen
2. Privacy Enhancing Technology
3. Worauf man sich bei Crypto alles verlassen muss
4. Risikoanalyse der Privatheit
5. Datenschutzfunktionen – was funktioniert und was nicht
6. „Strukturwandel des Privaten“ (VW-Stiftung)
Inhalt
18
19. /54R. Grimm, Mai 2014: Informatik und Privatheit
f2f, letter, phone, tv, newspaper, e-mail, web,
mobiles, … Infrastructure with many parties
Medium:
MDS (1995) Model of Trust with Medium
Ability
Benevolence
Integrity
Trust
Trustor‘s
Propensity
Perceived Risk
Relationship Outcomes
Perceived
Trustworthiness
Trust Basis:
Vertrauensgrund
NachMayer,Davis,Schoorman1995
1 2 3 4 5 6
19
20. /54R. Grimm, Mai 2014: Informatik und Privatheit
!
!
!
Institution-based
trust
MDS (1995) +
McKC (2001)
for Medium
Ability
Benevolence
Integrity
Trust
Trustor‘s
Propensity
Perceived Risk
Relationship Outcomes
Perceived
Trustworthiness
Trusting
intentions
Disposition
of trust
!
Medium
!
!
!
!
!
!
!
!
!
Functionality
Availability
Reliability
User-orient.
Correctness
No malware
Weaknesses/
Risks
Knowledge/
Perception
1 2 3 4 5 6
20
21. /54R. Grimm, Mai 2014: Informatik und Privatheit
Kryptographie
Klartext
aus Zeichen,
Buchstaben,
Bildern,
Audio usw.
Kryptogramm
!
„Wilder Bitstring“
!
Algorithmus
Schlüssel
1 2 3 4 5 6
21
22. /54R. Grimm, Mai 2014: Informatik und Privatheit
Implementieren von Kryptographie
Mathematik: Funktionen
Algorithmen, Protokolle
Anwendungsprogramme
Anwendungen
Menschen bauen
Menschen nutzen
HW/BS
1 2 3 4 5 6
22
23. /54R. Grimm, Mai 2014: Informatik und Privatheit
⇒ Services + Infrastrukturen
Menschen
Schnittstellen
Anwendung
Anwendung
Anwendung Anwendung
Anwendung
Kooperative
Anwendungen
Schnitt-
stellen
1 2 3 4 5 6
23
24. /54R. Grimm, Mai 2014: Informatik und Privatheit
• Technik
• Mathematik
• Zusagen der IT-Sicherheit
• Sicherheitsfähigkeit der Verfahren
• Verlässliche Systeme
• Hilfsbereitschaft/Kulanz
• Verantwortungsbewusste Personen
• Korrekte Programme
• Manipulationsfreie Systeme
• Integre Personen
Vertrauen in IT-Sec+Priv Infrastruktur
Fähigkeit (*)
Wohlwollen (*)
(*) „Ability, Integrity, Benevolence“ i.S.v.: MDS (1995, 2007)
Integrität (*)
1 2 3 4 5 6
24
25. /54R. Grimm, Mai 2014: Informatik und Privatheit
• Technik
• Elektrotechnik der Computer und Netze
• Organisation des Internet
• Verfügbarkeit von Diensten (Clouds, Infoservices…)
• Programmierbarkeit
• Softwaretechnik
Vertrauen in … Fähigkeit/Performanz
1 2 3 4 5 6
25
26. /54R. Grimm, Mai 2014: Informatik und Privatheit
• Mathematik
• Kryptographie
• Komplexitätstheorie (z.B. Quantenrechner)
• Zusagen der IT-Sicherheit
• Authentifizierung
• Zugriffsschutz
• Sicherheitsfähigkeit der Verfahren
• Expertenprüfungen CC/PP
• CERTs
• Virenschutz
• Updates
Vertrauen in … Fähigkeit/Performanz
1 2 3 4 5 6
26
27. /54R. Grimm, Mai 2014: Informatik und Privatheit
• Verlässliche Systeme
• Gemeinsame Kooperationsziele
• Keine heimlichen Nebenfunktionen (Hintertüren)
• Hilfsbereitschaft/Kulanz
• Fehlerbereinigung
• Warnung und Unterstützung (CERTs)
• Verantwortungsbewusste Personen
• Nutzerorientiertes Arbeitsethos
• ¬ heimliches Ausforschen
Vertrauen in … Wohlwollen/Zweckorientierung
1 2 3 4 5 6
27
28. /54R. Grimm, Mai 2014: Informatik und Privatheit
• Korrekte Programme
• Exakt an Funktion und Kooperationszweck
• Softwaretechnik
• Manipulationsfreie Systeme
• CC und PP
• Oder Überprüfung durch Nutzer? (siehe E-Wahlen)
• Integre Personen
• Arbeitsethos
• Ehrlichkeit
• Charakterstärke
Vertrauen in Integrität/Zweckangemessenheit
1 2 3 4 5 6
28
29. /54R. Grimm, Mai 2014: Informatik und Privatheit
Hinter-tür
(Jan. 2014)
29
30. /54R. Grimm, Mai 2014: Informatik und Privatheit
• Wie weit reicht der kryptographische Schutz?
• Bei Speicherung ist alles einfach: z.B. Truecrypt
• Aber bei Kommunikation?
• Das Internet trennt Daten (IP Datagramme) von ihren Anwendungen
(APDU)
• IP Sec unter SSL unter S/MIME unter TOR
Selbst wenn alles funktioniert…
1 2 3 4 5 6
30
31. /54R. Grimm, Mai 2014: Informatik und Privatheit
S t a t i k
D y n a m i k
• Inhaltsdaten
• Beispiele Mail Body, HTML-Seite
• Beispiel Search Request und Search Result
• Steuerungsdaten
• Beispiele Mail Header, HTTP Header
• Beispiel Adressen
• Kommunikationsbeziehungen
• Wer wann mit wem
• Kommunikationsverhalten
• Welcher Link wann von wo
Vertraulichkeit
1 2 3 4 5 6
31
32. /54R. Grimm, Mai 2014: Informatik und Privatheit
Protokollverschachtelung
IPSec: zwischen
IP-Routern/
Subnetzen
TCP-Frame
(IPSec-
verschlüsselt)
SSL: zwischen
Anwendungen
(E-Mail-Server;
Web-Browser-
u. Web-Server)
S/MIME, WS-Sec:
zwischen Anwendungs-
Partnern
(E-Mail-Adressen, URLs)
Klare
IP-Adr
Port-
Nr.
E-Mail-
Adr.,
URLs
Port-
Nr.
Im IPSec-Tunnelmodus auch
weitere IP-Datagramme möglich
C o n t e n t
1 2 3 4 5 6
32
33. /54R. Grimm, Mai 2014: Informatik und Privatheit
• Zur Verschleierung von Kommunikationsbeziehungen
• Für anonyme Kommunikation
Overlay-Netze, MIXe
Aus: JAP Webpages
1 2 3 4 5 6
33
34. /54R. Grimm, Mai 2014: Informatik und Privatheit
• Kryptographie ist (nur) eine mathematische Basis für Verschlüsselung
• Darüber hinaus erforderlich:
• Sichere Implementierung
• Sichere Einbettung in (kooperative) Anwendungen
• Sichere Organisation (Systeme, Menschen)
• Sichere Nutzung (z.B. Passwörter…)
• Achtung Hintertüren!
• Inhaltsverschachtelung
• lässt gewisse K-Beziehungen sichtbar
Krypto Zusammenfassung
1 2 3 4 5 6
34
35. /54R. Grimm, Mai 2014: Informatik und Privatheit
1. Privatheit, was Informatiker darunter verstehen
2. Privacy Enhancing Technology
3. Worauf man sich bei Crypto alles verlassen muss
4. Risikoanalyse der Privatheit
• Bsp. Vertraulichkeit, Weitergabe an Dritte
5. Datenschutzfunktionen – was funktioniert und was nicht
6. „Strukturwandel des Privaten“ (VW-Stiftung)
Inhalt
35
36. /54R. Grimm, Mai 2014: Informatik und Privatheit
• Gegenstand des Vertrauens:
• Ziel der Relation
• Risiko:
• Was kann schief gehen? Schadensabschätzung
• Maßnahme:
• Verminderung des Risikos
• Verbleibendes Risiko:
• Vertrauensbereich
• Vertrauensgrund
• Tausch, Wert, Vertrag/Interesse
M3. Risk (taken for Relation)
ausgeführt nach den Datenschutzprinzipien
1 2 3 4 5 6
36
37. /54R. Grimm, Mai 2014: Informatik und Privatheit
• Kern der Privatheit:
• Verborgenheit vor einer Öffentlichkeit
• Gedeihen nur im Verborgenen
!
• Gegenstand des Vertrauens:
• dass Trustee Daten nicht von sich aus veröffentlicht
(Integrität, DS-Erklärung)
• dass Trustee geeignete Maßnahmen ergreift
(Fähigkeit und Ernsthaftigkeit/Benevolenz)
• dass die Maßnahmen wirken
(institutionelles Vertrauen in Medium)
Risiko bei Vertraulichkeit (V-Gegenstand)
1 2 3 4 5 6
37
38. /54R. Grimm, Mai 2014: Informatik und Privatheit
• Risiko:
• R1: Trustee gibt weiter an Dritte (Online Transfer o. Einwilligung)
• R2: Trustee geht fahrlässig mit Daten um, ergreift keine/falsche Maßnahmen
• kein Schutz bei Kommunikation und auf Serverseite
• R3: Medium hat Schwachstellen der Schutzfunktionen
!
• Maßnahmen:
• R1, Datenschutzkontrolle, IT-Forensik
Forschungslücke: neue Spurenbeweise, Wasserzeichen, „sticky logs“
• R2, Qualitätsanspruch an Trustee, Ausbildung, gesetzl. Anforderung, Kundendruck,
teilw. Selbstdatenschutz, E2E-Verschlüsselung (wie weit reicht diese?)
• R3, Vertrauensbildende Maßnahmen im Medium,
Selbstdatenschutz (Tracker-Blocker, E2E-Verschlüsselung)
Risiko bei Vertraulichkeit (Risiko, Maßnahmen)
1 2 3 4 5 6
38
39. /54R. Grimm, Mai 2014: Informatik und Privatheit
• Verbleibendes Risiko: Mangel an…
• …persönlicher Integrität und prozeduraler Benevolenz des Trustees
• …technischer und organisatorischer Integrität des Mediums
!
• Arbeitsthesen:
• Kombination aus Netz- und E2E-Verschlüsselung erforderlich
• Wohlverhalten durch Ethik-Konsens (Aufklärung) und Kontrolle
• Verfahren zur Zweckbindung von Daten entwickeln
Risiko bei Vertraulichkeit (Vertrauensbereich)
1 2 3 4 5 6
39
40. /54R. Grimm, Mai 2014: Informatik und Privatheit
• Vertrauensgrund:
• Werteorientierung: Gesetze, Ethik
• Kundenbindung: Prozedurale Ernsthaftigkeit
• Faktizität des Internets: das funktioniert alles erfahrungsgemäß
!
• Misstrauensgrund:
• Geschäft mit personenbezogenen Daten ist sehr lukrativ (Weitergabe)
• Sicherheit auf Service-Seite kaum überprüfbar (ein Bisschen aber doch)
• Das Internet ist ein offenes Hackerparadies
Risiko bei Vertraulichkeit (V-Grund)
1 2 3 4 5 6
40
41. /54R. Grimm, Mai 2014: Informatik und Privatheit
1. Privatheit, was Informatiker darunter verstehen
2. Privacy Enhancing Technology
3. Worauf man sich bei Crypto alles verlassen muss
4. Risikoanalyse der Privatheit
5. Datenschutzfunktionen – was funktioniert
und was nicht
1. Zweckbindung, Erforderlichkeit, Datensparsamkeit
2. Einwilligung
3. Transparenz (v.a. P3P, Lämmel/Pek-Paper)
4. Kontrolle
5. Vertraulichkeit, Weitergabe an Dritte
6. „Strukturwandel des Privaten“ (VW-Stiftung)
Inhalt
41
42. /54R. Grimm, Mai 2014: Informatik und Privatheit
• Misstrauensgründe:
• Personenbezogene Daten sind Geld wert
• Unverfolgbarkeit der Herkunft
• Finanzierungshilfe durch Reklame
• Analysewissen, besserer Service (LBS)
• Besonders kritisch: mobile Apps!
• Maßnahmen erfordern:
• Wohlverhalten der Anbieter
• Externe Kontrollen
• Arbeitsthesen:
• Datensparsamkeit gehört zum Systemdatenschutz
• Ist von Nutzern nicht durchsetzbar
Zweckbindung, Erforderlichkeit, Datensparsamkeit
1 2 3 4 5 6
42
43. /54R. Grimm, Mai 2014: Informatik und Privatheit
• Misstrauensgründe:
• Trustee verbirgt andere Zwecke (s.o. Zweckbindung)
• Finanzierungshilfe durch Reklame
• Analysewissen, besserer Service (LBS)
• Trustee verlangt zu viel (s.o., Zweckbindung)
• Besonders kritisch: mobile Apps!
• Maßnahmen erfordern:
• Entscheidungskompetenz
• Servicealternativen
• Daher oft: einfach wegklicken
• Arbeitsthese:
• Nutzer werden überfordert
Einwilligung
1 2 3 4 5 6
43
44. /54R. Grimm, Mai 2014: Informatik und Privatheit
• Beispiel Datenschutzerklärung
• Lang, kryptisch
• Verblüffend offen, versteckte Tücken
• z.B. [Google 2014]
• Beispiel P3P
• Große Euphorie 2000
• W3C-Standard 2000
• [Grimm/Roßnagel 2000]
• AT&T Privacy Bird 2004 (Lorrie Cranor)
• Policy Generator für Rheinland-Pfalz 2006
• Nichtssagende P3P-Clones [Lämmel/Pek 2010]
Transparenz
1 2 3 4 5 6
44
45. /54R. Grimm, Mai 2014: Informatik und Privatheit
• Misstrauensgründe:
• Anbieter will verbergen (s.o., Zweckbindung)
• Anbieter scheut Aufwand
• Anbieter will keine Nutzerkontrolle (Löschung, Korrektur)
• Maßnahmen erfordern:
• Verständnis der Zusammenhänge
• Kommunikationsaufwand
• Entscheidungskompetenz
• Servicealternativen
• Arbeitsthese:
• Nutzer werden überfordert
Transparenz
1 2 3 4 5 6
45
46. /54R. Grimm, Mai 2014: Informatik und Privatheit
• Misstrauensgründe:
• Kontrollobjekt verbirgt Daten (ist besser ausgerüstet als Kontrollorgan)
• Kontrollorgan ist politisch träge
• Kontrollorgan ist politisch nicht neutral
• Maßnahmen erfordern:
• Politischen Willen
• Gut ausgerüstete Kontrollorgane
• Gute IT-Forensik (ggf. Forschungslücke)
• Arbeitsthesen:
• Kontrolle ist eine Entlastung für die Nutzer
• Kontrolle darf keine bürokratische Fessel sein
Externe Kontrolle
1 2 3 4 5 6
46
47. /54R. Grimm, Mai 2014: Informatik und Privatheit
• Misstrauensgründe:
• Geschäft mit personenbezogenen Daten ist sehr lukrativ (Weitergabe)
• Sicherheit auf Service-Seite kaum überprüfbar (ein Bisschen aber doch)
• Das Internet ist ein offenes Hackerparadies
• Maßnahmen erfordern:
• persönliche Integrität und prozedurale Benevolenz des Partners
• technische und organisatorische Integrität des Mediums
• Arbeitsthesen:
• Kombination aus Netz- und E2E-Verschlüsselung erforderlich
• Wohlverhalten durch Ethik-Konsens (Aufklärung) und Kontrolle
• Verfahren zur Zweckbindung von Daten entwickeln
Vertraulichkeit
1 2 3 4 5 6
47
48. /54R. Grimm, Mai 2014: Informatik und Privatheit
1. Privatheit, was Informatiker darunter verstehen
2. Privacy Enhancing Technology
3. Worauf man sich bei Crypto alles verlassen muss
4. Risikoanalyse der Privatheit
5. Datenschutzfunktionen – was funktioniert
und was nicht
6. „Strukturwandel des Privaten“ (VW-Stiftung)
Inhalt
48
50. /54R. Grimm, Mai 2014: Informatik und Privatheit
• Technikentwicklung verändert Gesellschaft
• z.B. „Privacy Paradox“
• Digitale Kommunikationsräume sind reale Kooperationsräume
• für Politik, Recht, Kommunikation
• Gefährdungsdiskurs angemessen?
• Für Freiheit/Demokratie/Information:
• Chancen der Öffnung des Privaten
• Leistung des Privaten
• Informationelle Selbstbestimmung versus gesellschaftlicher Aufgabe
Gemeinsame Phänomene
1 2 3 4 5 6
50
51. /54R. Grimm, Mai 2014: Informatik und Privatheit
Strukturwandel des Privaten
1 2 3 4 5 6
51
52. /54R. Grimm, Mai 2014: Informatik und Privatheit
• Drei Kooperationsfelder
• Freiheit
• Demokratie
• Informationsgesellschaft
• Drei Phasen
• Rekonstruktion
• Konstruktion
• Handlungsperspektiven
Drei Phasen und drei Kooperationsfelder
1 2 3 4 5 6
52
53. /54R. Grimm, Mai 2014: Informatik und Privatheit
• PW:
• Politische Theorie der Privatheit
• Grenzkonflikte: Konstitution und Normierung informationeller Privatheit im digitalen Zeitalter
• RW:
• Angemessene rechtliche Prinzipien für den Schutz und die Öffnung des Privaten
• e-privacy als Desiderat
• Inf.
• Technische Bedingungen des Privaten im Netz
• Technisch-organisatorische Gestaltung von Privatsphären
• KW:
• Privacy-Tuning (abgeleitet von Audience Tuning)
• Privacy-Tuning unter wechselnden Privacy-Risk Cues und Benefits
Teilprojekte
1 2 3 4 5 6
53
54. /54R. Grimm, Mai 2014: Informatik und Privatheit
Th 1 Individuelles Nutzungsverhalten führt zu keinen individuellen
Nachteilen der Privatheit;
aber es führt zu gesellschaftlichem Schaden
Th 2 Nutzer müssen von Datenschutzaufgaben entlastet werden
Th 3 Individuelle Einwilligung und Transparenz überfordern Nutzer und
bleiben ohne zugehörige externe Kontrolle zahnlos
Th 4 Anonymisierung des Datennetzes und Personifizierung der
inhaltlichen Beziehungen
(Achtung: Facebook ist Daten- und Inhaltsvermittler)
Th 5 Stärkung einer flächendeckenden externen Kontrolle als
Gemeinschaftsaufgabe
Thesen (für die Informatik)
1 2 3 4 5 6
54
55. /54R. Grimm, Mai 2014: Informatik und Privatheit
Privatheit:
Hannah Ahrend: Vita Activa. Vom tätigen Leben. Orig. The Human Condition, Chicago 1958. Piper
1967, München. TB, 13. Auflage November 2013. Besonders Kap. 2, Der Raum des Öffentlichen und
der Bereich des Privaten.
Grundgesetz (GG) der BRD, Art. 1, Abs. 1; Art. 2, Abs. 2; Art. 10; Art. 13.
BVerfG, Volkszählungsurteil 15.12.1983, "Informationelle Selbstbestimmung", abgeleitet aus GG Art. 1
und 2, Abs. 1. Besonders Begründung, C II 1 a.
BVerfG, Urteil zur Online-Überwachung, 27.2.2008.
EuGH, Urteil über Unzulässigkeit der RL 2006/24/EG, Vorratsdatenspeicherung, 8.4.2014,
USA. 4. Zusatzartikel der Verfassung. 4th Amendment of the Bill of Rights, „The right of the people to
be secure in their persons, houses, papers, and effects…”
Louis Brandis, Samuel D. Warren: The Right to Privacy. Harvard Law Review, Jg. 4, Nr. 5, 1890. Darin
„the right to be left alone“.
Simitis, Spiros (Hrsg.): Bundesdatenschutzgesetz. 7. Aufl., Nomos Verl., Baden-Baden, 2011, 1886 S.
Zu den Datenschutzprinzipien und ihrer Kritik: Roßnagel, A.: Datenschutz in einem informatisierten
Alltag. Gutachten im Auftrag der Friedrich-Ebert-Stiftung. Bonner Universitätsdruckerei, 2007, 224 S.
http://http://library.fes.de/pdf-files/stabsabteilung/04548.pdf [download 3.4.2014]
Literatur
55
56. /54R. Grimm, Mai 2014: Informatik und Privatheit
PET (1):
BSI, Bundesamt für Sicherheit in der Informationstechnik (2010): Advanced Security Mechanisms for
Machine Readable Travel Documents, Technische Richtlinie TR-03110 (v 2.03).
David Chaum: Blind signatures for untraceable payments. Advances in Cryptology: Proc. Crypto’82,
Plenum Press, 1983, 199-203.
David Chaum: Security without Identification: Transaction Systems to make Big Brother obsolete. In:
Communications of the ACM, Vol. 28, No. 10, 1030-1044, Oct 1985. Übersetzt ins Deutsche als
"Sicherheit ohne Identifizierung", in: Informatik Spektrum 1987, No.10, 262-277. (contains the so-called
"Dining Cryptographers Problem“)
Lance Cottrell, loki@obscura.com: Mixmaster and Remailer Attacks, ca.1990. Deutsche Übers., Lutz
Donnerhacke: http://altlasten.lutz.donnerhacke.de/mitarb/lutz/anon/remailer-essay.html [22.5.2014]
Literatur
56
57. /54R. Grimm, Mai 2014: Informatik und Privatheit
PET (2):
R. Grimm, A. Roßnagel: Can P3P help to protect privacy worldwide? Proc. ACM Multimedia and
Security, Nov 4, 2000. Los Angeles, pp 157-161. http://dl.acm.org/citation.cfm?id=357917 [22.5.2014]
M. Köhntopp, K. Köhntopp: Datenspuren im Internet. CR 4/2000.
M. Köhntopp, A. Pfitzmann: Datenschutz Next Generation. In: H. Bäumler (Hg.): E-Privacy. Vieweg,
Wiesbaden, 2000.
Lämmel, Ralf; Pek, Ekaterina: Vivisection of a Non-Executable, Domain-Specific Language – Un-
derstanding (the Usage of) the P3P Language. In: Proceedings of ICPC, 2010, pp.104-113.
IBM (2003): EPAL 1.2: Enterprise Privacy Authorization Language, IBM Research Report, 2.2.2003,
http://www.zurich.ibm.com/security/enterprise-privacy/epal/Specification/index.html [23.5.2014]
!
Vertrauen:
Mayer, R.C., Davis, J.H., Schoorman, F.D.: An Integrative Model of Organizational Trust. The Academy
of Management Review. 20, 709–734,1995.
McKnight, D.H., Chervany, N.L.: What Trust Means in E-Commerce Customer Relationships: An
Interdisciplinary Conceptual Typology. International Journal of Electronic Commerce. 6, 35–59, 2001.
Google (2014): Datenschutzerklärung & Nutzungsbedingungen, 31. März 2014, 9 Seiten, http://
www.google.de/intl/de/policies/privacy/
Literatur
57