Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

Nuevas tendencias en biometría facial // New trends in facial biometrics

602 views

Published on

Nuevas tendencias en biometría facial
Por Enrique Cabello Pardos
Universidad Rey Juan Carlos

Curso de Verano 'Innovación en ciberseguridad aplicada a la protección de la identidad digital #CIGTR2015'.
http://es.cigtr.info/2015/06/curso-de-verano-innovacion-en-seguridad.html (ES)

New trends in facial biometrics
By Enrique Cabello Pardos
University Rey Juan Carlos

Summer Course 'Innovation in security applied to the protection of digital identity #CIGTR2015'.
http://www.cigtr.info/2015/06/summer-course-innovation-in-security.html#.ViXv337hDb2 (EN)

Published in: Technology
  • Be the first to comment

  • Be the first to like this

Nuevas tendencias en biometría facial // New trends in facial biometrics

  1. 1. Enrique Cabello Universidad Rey Juan Carlos enrique.cabello@urjc.es http://www.frav.es 1
  2. 2. Acerca de grupo de investigación • Grupo de investigación de la URJC. • En el Departamento Informática y Estadística (Escuela Técnica Superior de Ingeniería Informática). • Formado por 3 profesores, 4 investigadores a tiempo completo (3 doctores, 1 ingeniero), 1 becario, colaboradores (México, alumnos). • Proyectos activos: – ABC4EU: Proyecto Europeo dentro del FP7. – Invisum (Intelligent Videosurveillance System): Proyecto nacional. 2
  3. 3. Acerca de grupo de investigación • Proyectos anteriores: – SIBAR análisis y la evolución de los sistemas de control fronterizo automático. – Proyectos de Seguridad desarrollados en el Aeropuerto de Madrid Barajas. • Reconocimiento facial sin intrusion • Seguimiento multicámara de sospechosos • Detección de objetos abandonados 3
  4. 4. Acerca de grupo de investigación • Líneas de Investigación: – Seguridad – Sistemas ABC – Videovigilancia Inteligente – Sistemas Bioinspirados 4
  5. 5. Dos palabras sobre mi • Frontex Expert: – IDCHECKS2013 – Expert Frontex/CEI/48/2013 • Member of ISO/IEC JTC 1/SC 37: Biometrics • Member of CEN TC 224 WG 18: Biometrics – Co-editor of the Technical Specification in Personal identification – Recommendations for using biometrics in European Automated Border Control – Editor of the Technical Specification in Borders and Law Enforcement Application Profiles for mobile biometric identification systems 5
  6. 6. Indice • Antispoofing. • Privacy by design. • Gestión de riesgos. 6
  7. 7. Indice • Por que son importantes? – Un sistema puede acertar siempre con el nombre de un sujeto pero si no detecta si es un sujeto real o una cartulina con la cara impresa es muy poco útil – Porque los usuarios somos cada vez más conscientes de la necesaria protección de nuestros datos. Sobre todo biométricos. Puedo cambiar mi password, pero no mi huella. – Saber que riesgos se corren al actuar. 7
  8. 8. Antispoofing • Posibles Ataques: – Presentation attack detection (antes del sensor) – Antispoofing (después del sensor: relacionado con Seguridad Informática) • Spoofing: suplantación • Antispoofing: intento de descubrir la suplantación 8
  9. 9. Antispoofing • En el esquema: – 1 PAD – 2-8 Ataques indirectos 9
  10. 10. Antispoofing • Cuando me identifico: – Una clave: pin o DNI o pasaporte o password – Un dato biométrico: cara o huella o iris o algún otro • Puedo falsificar el pin (o bien obtenerlo). • Puedo falsificarme yo? 10
  11. 11. Antispoofing • ICAO: – Cara – Huella – Iris (aunque no implementado en pasaportes o DNIs). 11
  12. 12. Antispoofing • Gattaca (1997): – Engañar a un analizador de ADN poniendo gotas de sangre en un dedo falso. 12
  13. 13. Antispoofing • Conferencia Black Hat (2009): – Una imagen impresa de una cara desbloqueó los sistemas de reconocimiento facial de tres portatiles. • Asus (F6S Series, X80 Series): Asus SmartLogin ver 1.0.0005 • Toshiba (L310, M300): Toshiba Face Recognition ver 2.0.2.32 • Lenovo (Y410, Y430): Lenovo Veriface III 13
  14. 14. Antispoofing • CVDazzle (2010) • No es spoofing: el objetivo es que la cara no sea detectada. 14
  15. 15. Antispoofing • Diversas opciones: 15
  16. 16. Antispoofing • Android 4.0 (2011): – Presentaba un bloqueo que se podía eliminar cuando el usuario estaba frente al terminal. – Se pudo desbloquear: • Por medio de videos • Por medio de fotos • Android 4.1 (2012) – Se mejoró el sistema detectando el parpadeo 16
  17. 17. Antispoofing 17
  18. 18. Antispoofing • Vuelo Hong Kong-Vancouver (2011) 18
  19. 19. Antispoofing • Spoofing de huellas digitales: – Primer paso: crear un molde 19
  20. 20. Antispoofing • Spoofing de huellas digitales: – Segundo paso: crear la huella 20
  21. 21. Antispoofing • iPhone 5s - Touch ID (2013) – Apple lanza su nuevo iPhone con desbloqueo basado en huella 21
  22. 22. Antispoofing • iPhone 5s - Touch ID (2013) – 2 días después ya era posible desbloquearlo con una huella falsa. – http://dasalte.ccc.de/biometrie/fingerabdruck_ko pieren.en 22
  23. 23. Antispoofing facial • Ha sido objeto de estudio en varios proyectos europeos: – Tabula Rasa – Fast Pass – BEAT • En ABC4EU se realizarán algunos experimentos. 23
  24. 24. Antispoofing facial tradicional • Tipo de ataque considerado: – Cartulina – Careta – Video (ipad, tablet) • En general, en un entorno de laboratorio 24
  25. 25. Antispoofing facial tradicional • Que se suele analizar? − Análisis de movimiento. Se usa el flujo óptico para que ver si el movimiento es de un objeto 3D deformable (una cara) o de un sólido rígido (una máscara o una foto). − Análisis de texturas: se intenta caracterizar la textura de una cara real frente a la que proviene de una imagen impresa o en una pantalla. − Detección de vivacidad (Liveness) : se intenta determinar que el sujeto está vivo (parpadeo, movimiento de labios, etc.) 25
  26. 26. Antispoofing facial • Competiciones todos los años: – IJCB 2011: 6 teams [Chakka, et al 2011] – ICB 2013: 8 teams [Chingovska, et al 2013] • Los participantes suelen provenir de universidades. • Los ataques considerados hasta ahora: • Fotografias impresas • Fotografías en un dispositivo movil (iPhone / iPad) • Vídeos en un dispositivo móvil 26
  27. 27. Antispoofing • Resumen de resultados en competición 2013: – Equipos 1 y 4 obtuvieron 100% aciertos – Algoritmos sofisticados Team 1 2 3 4 5 6 7 8 Texture based Yes No Yes Yes Yes Yes Yes Yes Motion based Yes No Yes Yes No No No No Liveness based No Yes No No No No No No Fusion Feature Score Score Feature Feature Score No No 27
  28. 28. Problemas abiertos • Los sujetos cambian debido a la edad. 28
  29. 29. Problemas abiertos • Condiciones inadecuadas: difícil extraer texturas y otra información 29
  30. 30. ABC4EU • ABC4EU es un proyecto FP7 (EU Seventh Framework Programme) • Duración 3,5 años, iniciado en enero de 2014. • Consorcio de 15 socios de 8 paises de la Unión Europea y liderado por Indra Sistema S.A. 30
  31. 31. ABC4EU • Consorcio 31
  32. 32. ABC4EU 32
  33. 33. ABC4EU 33
  34. 34. Problemas abiertos • Una subtarea es antispoofing facial. • Aquí el entorno es bastante controlado. 34
  35. 35. Problemas abiertos • Se ha simulado un puesto ABC en el lab. 35
  36. 36. ABC4EU antispoofing • La hipótesis inicial es que en el NIR los ataques van a ser mas fáciles de detectar que en el visible. • Al menos, dificulta el ataque (el ataque tiene que ser en visible y en NIR). 36
  37. 37. Problemas abiertos • Se ha utilizado iluminación NIR (infrarrojo cercano) • Se ha creado una base de datos Visible-NIR 37
  38. 38. ABC4EU • Se dispone de 11 sujetos • De cada uno de ellos se han obtenido 35 imágenes. Subject image (NIR) Photo attack (NIR) Eye cut photo attack (NIR) Subject Image (VIS) Photo attack (VIS) Eye cut photo attack (VIS) Tablet attack (VIS) 5 photos 5 photos 5 photos 5 photos 5 photos 5 photos 5 photos 38
  39. 39. ABC4EU • También se han obtenido 7 vídeos. Subject video (NIR) Video attack (NIR) Eye cut video attack (NIR) Subject video (VIS) Video attack (VIS) Eye cut video attack (VIS) Tablet video attack (VIS) 1 video 1 video 1 video 1 video 1 video 1 video 1 video 39
  40. 40. Ejemplo 40
  41. 41. Ataques • Imagen impresa (Infrarrojo-Color) 41
  42. 42. Ataques • Imagen impresa (permitiendo el parpadeo) (infrarrojo y color). 42
  43. 43. Ataques • Video en una tablet 43
  44. 44. Local Binary Pattern • Es un método de análisis de textura local. • Se compara cada píxel con los vecinos. • Tomamos un pixel como central y lo comparamos con los 8 vecinos. • Si el nivel de gris del pixel central es mayor que su vecino, ponemos un 1 (0 en caso contario). • Se concatenan los 1 y los 0 para obtener un número en binario. 44
  45. 45. Local Binary Pattern • La nueva imagen de textura se forma con estos valores como nuevos niveles de gris. 45
  46. 46. Local Binary Pattern • Se pueden usar otros tipos de vecinos. • Lo normal es usar n en un circulo rodeando a un píxel. 46
  47. 47. Algoritmo utilizado • Algoritmo utilizado: análisis de texturas (LBP). 47
  48. 48. Algoritmo utilizado • LBP: Método de referencia con buenas prestaciones y rendimiento. 48
  49. 49. 49
  50. 50. Resultados • Separación entre ataques y auténticos 50
  51. 51. conclusiones • Es una prueba-de-concepto: base de datos pequeña (en número de sujetos y en ataques). • Incorporar más sensores y posiblemente fusión con información 3d. 51
  52. 52. Privacidad desde el diseño • Protección de datos: LOPD. • Dar un paso más en esta dirección. • El diseño es la primera etapa de un sistema o de una aplicación. Desde el diseño se debe garantizar la privacidad. 52
  53. 53. Siete principios básicos (1) • Proactivo, no Reactivo; Preventivo no Correctivo – Prevenir mejor que curar. – No ofrece remedios para resolver infracciones de privacidad una vez que ya ocurrieron . – El objetivo es que no ocurran. 53
  54. 54. Siete principios básicos (2) • La configuración predeterminada por defecto es la que mantiene la privacidad. – No hay que hacer nada especial. – El administrador/usuario no tiene que realizar acciones especiales. 54
  55. 55. Siete principios básicos (3) • Privacidad Incrustada en el Diseño – No es un extra que se añade al final. – Es un elemento dentro del diseño de la aplicación o del programa. – No limita el aspecto técnico, camina con él desde el principio. 55
  56. 56. Siete principios básicos (4) • Funcionalidad Total – “Todos ganan”. – No se plantea como un problema de suma cero. No es si alguien gana, otro pierde. – En concreto: no es una lucha privacidad frente a seguridad. 56
  57. 57. Siete principios básicos (5) • Seguridad de Principio a Fin. – La protección acompaña al ciclo de vida completo. – Desde el diseño de la aplicación (antes de que existan los datos). – Se diseña la obtención, almacenamiento, procesamiento y destrucción de los datos. – Si hay cambio de requisitos (nuevas funcionalidades o cambios) la privacidad desde el diseño se incrusta en estas nuevas opciones. 57
  58. 58. Siete principios básicos (6) • Visibilidad y Transparencia – Mantenerlo Abierto – Debe ser posible verificarse por una entidad independiente. – Se debe mantener la posibilidad de auditar el cumplimiento de los requisitos (igual que cualquier otra característica implementada). 58
  59. 59. Siete principios básicos (7) • Mantener un Enfoque Centrado en el Usuario. – El usuario es quien proporciona datos. – En general, no es un experto. Por lo tanto, por defecto se mantendrá un sistema de defensa de la de privacidad robusto. – Las notificaciones que se hagan desde/hacia el sistema serán notificación apropiadas y amigables para (al menos) un usuario promedio. 59
  60. 60. Pseudoidentidades (PI) • En lugar de trabajar con la identidad se trabajará con un PI (pseudoidentidad). • Una PI no revela ninguna información que permite la recuperación de los datos originales biométricos. Es irreversible y sin conexión con los datos originales. • Es renovable - un número muy grande de PI independientes puede ser generado a partir de la misma medición biométrica y puede ser revocado. 60
  61. 61. Pseudoidentidades (PI) • La PI se crean en el proceso de enrolment. • Las muestras biométricas son procesadas por un extractor de características para generar un conjunto de características que tienen propiedades discriminativas. Esta parte es, en esencia, lo mismo que un proceso de inscripción biométrica convencional. • Posteriormente, un codificador de pseudoidentidad (PIE) genera la referencia biométrica renovable que comprende un IP y datos auxiliares (AD). • La muestra biométrica y las características extraídas de las mismos se pueden descartar tan pronto como se crean los elementos PI y AD. 61
  62. 62. Pseudoidentidades (PI) • Los elementos PI y AD se almacenan para su uso posterior (pueden hacerse de forma independiente). El almacenamiento puede ser implementado en una base de datos central o en un elemento que puede llevar el usuario (tarjeta, NFC, etc). • La gran ventaja de la separación de datos es que tanto el sujeto (que lleva el testigo que contiene AD) y el proveedor de servicios (que tiene acceso a la PI) deben cooperar. 62
  63. 63. Pseudoidentidades (PI) • Durante la verificación, el sujeto aporta una nueva muestra biométrica, a un sistema que consta de un extractor de características y un recodificador de PI (PIR). • El PIR genera un nuevo PI* basado en las características extraídas y el AD. Sólo si se presentan el AD correcto y la característica biométrica es legítima, el PI* reconstruido coincidirá con el PI. En todos los demás casos, la autenticación fallará. 63
  64. 64. Pseudoidentidades (PI) • Match-on-card: En algunos sistemas, el PI* se puede combinar con el comparador de pseudo identidad (PIC) en un componente lógico o físico llamado verificador de pseudo identidad (PIV), que emite directamente un resultado binario de verificación. 64
  65. 65. Problemas abiertos • Privacidad de la Identidad. – El almacenamiento de datos biométricos es uno de los riesgos más graves de perdida de privacidad. – La unión entre los datos de identidad biométrica y otros datos (cuenta bancaria, tarjeta de crédito) puede permitir vincular información sensible. • Por lo tanto, es crucial que los datos biométricos estén separados y protegidos de forma segura. 65
  66. 66. Problemas abiertos • Irreversibilidad. – Los datos biométricos sólo deben usarse para el propósito original. – Los datos biométricos deben ser transformados de tal manera que la muestra biométrica no puede ser recuperada de la representación transformada. Es decir, la transformación debe ser irreversible. – Preferiblemente sin comprometer el rendimiento de verificación biométrica. – La irreversibilidad se debe mantener incluso cuando los datos biométricos son accesibles desde diferentes aplicaciones, servicios o bases de datos. 66
  67. 67. Problemas abiertos • Imposibilidad de vinculación – No debe ser posible el seguimiento y la localización o traza de sujetos. – Los datos biométricos deben ser imposibles de vincular (unlinkable) entre las diversas aplicaciones. 67
  68. 68. Problemas abiertos • Confidencialidad – La confidencialidad garantiza que la información sólo se da a conocer a las entidades autorizadas. – El almacenamiento y la transmisión de datos deben estar protegidos: • contra las escuchas, • la divulgación no autorizada • o modificación de los datos. – Esto requiere de técnicas criptográficas como cifrados simétricos o asimétricos. 68
  69. 69. Problemas abiertos • Integridad – Es la propiedad de salvaguardar la exactitud y completitud (si existe esta palabra) de los datos. – Se aconseja usar criptografía para proteger la integridad de los datos (como firmas o cifrado autenticado, posiblemente ampliado con marca de tiempo). 69
  70. 70. Problemas abiertos • Renovabilidad y Revocabilidad. – Los sujetos tienen un número limitado de iris, caras y dedos. – Un robo de identidad biométrico hace que en el futuro ya no se pueda utilizar esa característica biométrica. Una vez que se roba, el robo es para siempre. – El riesgo de robo de referencias biométricas se puede mitigar utilizando métodos que permitan que las referencias se deban renovar. – En caso de robo se debería permitir revocar una referencia y su renovación posterior. 70
  71. 71. Problemas abiertos • Considerar sólo la protección de datos no es privacidad desde el diseño. – El tener un sistema de protección de datos es un primer paso, pero hay más. – El consentimiento informado no es la solución mágica – El objetivo debe estar bien definido, los datos a utilizar han de ser los mínimos necesarios. Se debe mantener un criterio de proporcionalidad y razonabilidad. – La anonimizacion de datos no es una tarea trivial. – Hay sistemas y aplicaciones que necesitan datos biométricos 71
  72. 72. Problemas abiertos • Quien vigila al vigilante? – Un administrador podría ver un registro personal y no dejar huella – Logs que sean seguros 72
  73. 73. Problemas abiertos • Un desafío importante es la combinación de PbD y de Big Data. – Cómo garantizar el borrado de datos personales en un tiempo mínimo en un sistema de big data? – Cómo obtener estadísticas útiles a partir de datos anonimizados? 73
  74. 74. Análisis de Riesgos (Atacante) • Con la información que tiene, diseña el mejor ataque. 74
  75. 75. Análisis de riesgos (Defensor) • El defensor supone que el atacante conoce alguna debilidad. 75
  76. 76. • Enrique Cabello – enrique.cabello@urjc.es • http://www.frav.es • “This project has received funding from the European Union’s Seventh Framework Programme for research, technological development and demonstration under grant agreement no 312797 “ 76
  77. 77. Referencias (antispoofing) • Tabula Rasa: http://www.tabularasa-euproject.org • FastPass: https://www.fastpass-project.eu/ • BEAT: http://www.beat-eu.org • ABC4EU: http://abc4eu.com/ • CV Dazzle Camouflage from Face Detection. http://ahprojects.com/projects/cv- dazzle/ • NK Ratha et al. Enhancing security and privacy in biometrics-based authentication systems, IBM Systems Journal, 40(3):614634, 2001 • Spoong and Anti-Spoong in Biometrics. Lessons learned from the TABULA RASA project. Sebastien Marcel. http://www.idiap.ch/marcel • T. Matsumoto et al. Impact of Articial Gummy Fingers on Fingerprint Systems, SPIE 4677, Optical Security and Counterfeit Deterrence Techniques IV, 275, 2002 (http://cryptome.org/gummy.htm) • D. Nguyen et al. Your Face Is NOT Your Password, 2009 • http://istouchidhackedyet.com • http://www.ccc.de/en/updates/2013/ccc-breaks-apple-touchid 77
  78. 78. Referencias (PbD) • https://www.privacybydesign.ca/ • Jeroen Breebaart, Bian Yang, Ileana Buhan- Dulman, Christoph Busch. Biometric Template Protection. The need for open standards. Datenschutz und Datensicherheit 2009. • Privacy by Design in the Age of Big Data. Ann Cavoukian, Jeff Jonas. https://privacybydesign.ca/content/uploads/2 012/06/pbd-big_data.pdf 78

×