Mecánica estadística y teoría de la información como base de la seguridad estadística

1,377 views

Published on

Ponencia / Lecture.

Teresa Correas Ubiera. CISO Innovation. Grupo BBVA
Roberto Ortiz Plaza. InfoSec Engineering. Grupo BBVA
Santiago Moral Rubio. Director IT Risk, Fraud & Security. Grupo BBVA.

CIGTR Curso de Verano / Summer Course. Aranjuez, julio de 2013.

0 Comments
2 Likes
Statistics
Notes
  • Be the first to comment

No Downloads
Views
Total views
1,377
On SlideShare
0
From Embeds
0
Number of Embeds
73
Actions
Shares
0
Downloads
16
Comments
0
Likes
2
Embeds 0
No embeds

No notes for slide

Mecánica estadística y teoría de la información como base de la seguridad estadística

  1. 1. Cursos de Verano de Aranjuez Edición XIV 8 – 10 Julio 2013 Aranjuez
  2. 2. “Un análisis de riesgos es un proceso metodológico por el que se obtiene conocimiento fehaciente de la situación del riesgo de cada elemento del sistema de información y de las interrelaciones existentes entre ellos” 2
  3. 3. Grafo de un sistema de información Magerit CRAMM Octave Una red sencilla Enumerar 3
  4. 4. Una red compleja ¿Cómo? Información incompleta 4
  5. 5. Motivación “Un análisis de riesgos es un proceso metodológico por el que se obtiene conocimiento fehaciente de la situación del riesgo de cada elemento del sistema de información y de las interrelaciones existentes entre ellos” 5
  6. 6. Palancas Mecánica Clásica Termodinámica Mecánica Estadística Teoría de la Información Redes Complejas Teoría del Caos 6
  7. 7. Termodinámica Mecánica Enumerado Grafos Mecánica Estadística Teoría de la Información Teoría de los Sistemas de Información Redes Complejas 7
  8. 8. “Definir magnitudes con precisión y medirlas con exactitud” 8
  9. 9. Copernico (1473 – 1543) Einstein (1879 – 1955) Galileo (1564 – 1642) Kepler (1561 – 1630) Boltzmann (1844 – 1906) Newton (1642 – 1727) Otto (1602 – 1686) Thompson (1753 – 1814) Joule (1818 – 1889) Mariotte Clapeyron Clausius Carnot Boyle (1630 – 1684) (1796 – 1832) (1799 – 1864) (1822 – 1888) (1627 – 1691) Fowler (1889 – 1944) Kelvin Planck (1824 – 1907) (1858 – 1947) 9
  10. 10. Mecánica Clásica Galileo (1564 – 1642) Aportaciones Ciencia experimental Se comienza a observar y a medir Estudio del movimiento de los cuerpos De un planeta a una manzana Intuye que deben existir leyes matemáticas que rijan el movimiento de los cuerpos 10
  11. 11. Mecánica Clásica Newton (1642 – 1727) Aportaciones Desarrolla las leyes matemáticas intuidas por Galileo explicar los fenómenos observados Fija las leyes para Centro de masas Un sistema de muchos elementos puede sustituirse por UNO que describe comportamiento Corolario Aunque posteriormente Einstein demuestra que sus leyes no siempre se cumplen, sus ecuaciones siguen estando vigentes para resolver problemas simples 11
  12. 12. “Los fenómenos se miden” “Simplificación => Centro de masas” “Hay leyes que rigen los fenómenos de la naturaleza” 12
  13. 13. Termodinámica (Principio 0 y 1er Principio) Otto Boyle, Mariotte Thompson, Joule (1844 – 1906) Aportaciones Experimentan mucho en relación entre presión, volumen y temperatura “ Fabrican muchos cacharros” Joule, en particular, trabaja mucho en el estudio de la transferencia de energía entre un sistema y su entorno 13
  14. 14. Principio 0 Equilibrio Térmico ܶ௕ ܶ௔ ܶ௙ = T ܶ௖ T = Temperatura 14
  15. 15. 1er Principio Q W W Q ∆U Sistema ∆U Sistema Q = ∆U + W Q = Calor W = Trabajo ∆U = Diferencial de Energía ddPotencial de Riesgo 15
  16. 16. Termodinámica (2do Principio, máquinas térmicas y entropía) Carnot Kelvin y Planck Clasius y Clapeyron (1799 – 1947) Aportaciones Los primeros que se plantean obtener un rendimiento de la energía Incorporan el tiempo y la evolución en estados con el paso del tiempo Trabajan con diferenciales de un mismo sistema de dos momentos distintos Inventan la entropía como una medida del desorden de un sistema 16
  17. 17. 2do Principio ¿Por qué unos procesos ocurren en un sentido y no en el contrario? 17
  18. 18. Termodinámica (3er Principio) Planck (1858 – 1947) Aportación Eligen un punto de idealidad en el 0 teórico que sólo podría alcanzarse en el laboratorio Corolario Permite identificar la cantidad de entropía como la distancia entre el “cero” y cada estado Nota: Cuando nos aproximamos al cero absoluto la entropía del sistema se hace independiente de las variables que definen el estado del mismo. Planck define el calor para ser consecuente con la entropía del Boltzmann 18
  19. 19. 3er Principio 19
  20. 20. Principio 0: “Cuando dos sistemas entran en contacto alcanzan un estado de equilibrio” Principio 1: “Lo que tocas lo cambias. A veces con efectos caóticos” Principio 2: “Aunque no toques algo se degrada. A veces es irreversible” Principio 3: “La perfección es imposible” 20
  21. 21. Mecánica Estadística Boltzmann (1844 – 1906) Aportaciones Es posible llegar al “TODO” como la suma de la situación de cada una de las partes que lo componen Además con una pequeña selección de los componentes puedes llegar a conocer la situación del “TODO” Formula la entropía con una función de probabilidad y la conecta con la termodinámica ECUACIÓN PUENTE 21
  22. 22. “Se puede pasar de lo particular a lo general con métodos probabilísticos” 22
  23. 23. “Los fenómenos se miden” “Simplificación => Centro de masas” “Hay leyes que rigen los fenómenos de la naturaleza” 23
  24. 24. Principio 0: “Cuando dos sistemas entran en contacto alcanzan un estado de equilibrio” Principio 1: “Lo que tocas lo cambias. A veces con efectos caóticos” Principio 2: “Aunque no toques algo se degrada. A veces es irreversible” Principio 3: “La perfección es imposible” 24
  25. 25. “Se puede pasar de lo particular a lo general con métodos probabilísticos” 25
  26. 26. Andrei A. Márkov (1910) Ralph V. L. Hartley (1927) Alan Turing (1936) Shannon (1948) Weaver (1949) La necesidad de una base teórica para la optimización de la comunicación surgió del aumento de la complejidad y de la masificación de las vías de comunicación. 26
  27. 27. Teoría de la información Andrei A. Márkov (1910) Comienza la investigación de la manera óptima de enviar mensajes. Su principal aportación fueron modelos centrados en la compresión de texto. 27
  28. 28. Teoría de la información Ralph V. L. Hartley (1927) Precursor del lenguaje binario para optimización de mensajes. 28
  29. 29. Teoría de la información Alan Turing (1936) Definió el esquema de una máquina capaz de tratar información con emisión de símbolos, mundialmente conocida como la Maquina de Turing. 29
  30. 30. Teoría de la información Shannon (1948) Publica una teoría matemática de la comunicación. La demostración es a través de criptografía trabajando en dos planos, el mensaje real y el mensaje recibido. Buscando cuánto se parece este último al original define el concepto de información/incertidumbre. Posteriormente Von Neumann le sugiere que lo llame Entropía. 30
  31. 31. Boltzmann (1875) Shannon (1948) 31
  32. 32. Teoría de la información Weaver (1949) Culminación y asentamiento de la Teoría de la Información creando un modelo lineal y simple: Fuente Destino Mensaje Señal Señal Transmisor Señal recibida Mensaje Receptor Fuente de Ruido 32
  33. 33. Trabajo sobre dos planos Plano de lo que enviamos y el plano de lo que recibimos. A su distancia la llamó entropía. 33
  34. 34. Euler (1707 – 1783) Derek de Solla Price (1965) Pólya (1887 – 1985) Cayley (1821 – 1895) Erdös - Renyi (1959) Barabási - Albert (Actualidad) Apple - Haken (1976) La teoría de grafos surgió para solucionar un problema concreto por parte de Euler. Posteriormente lograr establecer un método único para solucionar problemas de diferentes ámbitos. Su evolución a redes complejas surgió porque con la teoría actual no eran capaces de modelar algunas leyes de la naturaleza 34
  35. 35. De Grafos a Redes Complejas Euler (1707 – 1783) Utiliza las matemáticas para modelar problemas de diferente naturaleza. Demuestra la imposibilidad de resolver un problema. 35
  36. 36. De Grafos a Redes Complejas Cayley (1821 – 1895) Enuncia Teoría de Grafos Enumerativos (Árboles). Este tipo de grafos se reutilizarán en ámbitos totalmente diferentes al investigado (Química). 36
  37. 37. De Grafos a Redes Complejas Pólya (1887 – 1985) Demuestra los resultados definitivos sobre Grafos enumerativos (Árboles). 37
  38. 38. De Grafos a Redes Complejas Erdös - Renyi (1959) Presentan un nuevo modelo llamado grafos aleatorios donde los grafos dejan de ser estáticos. Con los grafos existentes no podían modelar determinados fenómenos. 38
  39. 39. De Grafos a Redes Complejas Derek de Solla Price (1965) Enuncia la ventaja acumulativa. Es el primero en proclamar que con grafos simples no es posible modelizar determinados problemas. 39
  40. 40. De Grafos a Redes Complejas Apple - Haken (1976) Teorema de los 4 colores. Primer problema relevante de matemáticas demostrado formalmente por computación. 40
  41. 41. De Grafos a Redes Complejas Barabási - Albert (Actualidad) Definen redes de escala libre. Demuestran que con grafos simples es imposible modelar algunas de las leyes que rigen la naturaleza. Por eso fundan esta nueva disciplina. 41
  42. 42. Tratamiento de la Complejidad Para resolver problemas simples las herramientas simples son óptimas. Los problemas complejos no siempre pueden ser resueltos con herramientas simples. Es necesario evolucionar las herramientas clásicas. 42
  43. 43. Termodinámica Mecánica Enumerado Grafos Mecánica Estadística Teoría de la Información Teoría de los Sistemas de Información Redes Complejas 43
  44. 44. Reflexión “Hemos encontrado una función entrópica en la relación existente entre un sistema de información y el conocimiento que tenemos de él” Teoría de los dos planos 44
  45. 45. Objetivo “Conocer la diferencia del riesgo entre dos sistemas de información o en un sistema de información en dos momentos distintos como función de la variación de sus entropías” 45
  46. 46. “Si podemos hablar de ∆R en función de ∆S, encontraremos una manera simple de modelar el riesgo en redes complejas” ∆R ‫ܣ‬ ‫ܤ‬ ∆R ‫ܣ‬ଵ ∆R = Diferencial de riesgo ‫ܣ‬ଶ ∆S = Diferencial de entropía 46
  47. 47. El caos La tercera línea científica que hemos abierto cuando hemos llegado a estas conclusiones es el caos Por simplicidad vamos a definir 4 conceptos: Sistema lineal Sistema caótico Atractores Disparadores 47
  48. 48. ∆S: Diferencial de entropía “Los elementos y conexiones dentro de una red compleja que representan un sistema de información que existe y que no han sido diseñados” Sistema de Información Caminos NO diseñados Caminos diseñados 48
  49. 49. ∆U: Diferencial de Energía Potencial de Riesgo “ La energía (potencial de riesgo) de un sistema es el conjunto de nodos e interrelaciones no diseñados y conocidos” Sistema de Información Caminos NO diseñados Conocimiento de los Caminos No diseñados Caminos diseñados 49
  50. 50. Errores, debilidades e impactos ∆G(T, P) ∆S = (∆U + W) T ∆G = (∆H + T∆S) Nombre Descripción ∆S Diferencial de Entropía ∆U Diferencial de Energía ∆H Color Incidentes (T, P) = Coste, beneficio y riesgo para el atacante 50
  51. 51. “Con esta definición de la entropía y de la energía potencial de riesgo vamos a analizar su comportamiento en los 4 principios fundamentales de la termodinámica” 51
  52. 52. Ley 0 Física Analiza el comportamiento de dos sistemas cuando entran en contacto Conectamos dos sistemas * Teoría de los Sistemas de Información + ∆ܵ௔ ∆ܷ௔ + + ∆ܵ௕ ∆ܷ௕ * Hay que definir que significa sumar estas magnitudes. El resultado final implica que la suma no es menor que el mayor de ellas 52
  53. 53. Ley 1 Física Analiza el comportamiento de un sistema cuando introduces algún cambio. Modifico el Sistema. Cuando modifico un sistema se conserva su energía potencial de riesgo. La entropía puede quedar modificada. Teoría de los Sistemas de Información Añado nodos o relaciones ∆ܵ଴ ൑ ∆ܵଵ Quito nodos o relaciones ∆ܵ଴ ൒ ∆ܵଵ 53
  54. 54. Ley 2 Física Analiza el comportamiento de un sistema con el paso del tiempo cuando NO introduces ningún cambio. No modifico el Sistema Teoría de los Sistemas de Información Proceso irreversible 54
  55. 55. Ley 3 Física Analiza la posibilidad de alcanzar un valor cero de la entropía. Intento llegar al cero absoluto de entropía Teoría de los Sistemas de Información No se puede verificar formalmente una red compleja Se puede verificar formalmente un grafo 55
  56. 56. Seguridad Estadística “Con métodos de análisis de riesgo clásicos aplicados a elementos de la red compleja extraídos de forma aleatoria podemos inferir los mismos resultados que los obtenidos bajo una visión Macro” S = K log W S(X) = - ∑௡ ܲ௜ ݈‫݃݋‬ଶ ܲ௜ ௜ୀଵ 56
  57. 57. Cursos de Verano de Aranjuez Edición XIV 8 – 10 Julio 2013 Aranjuez

×