Your SlideShare is downloading. ×
Física de la visión (Teoría y Prácticas)
Upcoming SlideShare
Loading in...5
×

Thanks for flagging this SlideShare!

Oops! An error has occurred.

×

Introducing the official SlideShare app

Stunning, full-screen experience for iPhone and Android

Text the download link to your phone

Standard text messaging rates apply

Física de la visión (Teoría y Prácticas)

1,434
views

Published on

Este documento representa los apuntes de la asignatura de Física de la Visión de 3º de Ing. Industrial de la UMH. En esta asignatura inicia al alumno en los fundamentos teóricos y los aspectos …

Este documento representa los apuntes de la asignatura de Física de la Visión de 3º de Ing. Industrial de la UMH. En esta asignatura inicia al alumno en los fundamentos teóricos y los aspectos prácticos de la visión artificial aplicada al ámbito industrial. La asignatura se centra en dar a conocer al alumno las primeras etapas de los procesos de visión artificial para ampliar éstos en posteriores asignaturas.

Primeramente se estudia los aspectos físicos de la luz y posteriormente la anatomía del ojo humano. Posteriormente se divide el bloque en dos grandes grupos: la iluminación y la visión artificial. Los temas tratados son:

- Óptica geométrica
- Anatomía del ojo humano
- iluminación
- Colorimetría
- Sistemas de adquisición de imágenes
- Tratamiento de imágenes
- Procesado básico de imágenes
- Transformación de imágenes
- Detección de bordes

De manera adicional, este documento también incluye las prácticas de la asignatura (la práctica 1 de iluminación fue un trabajo conjunto mío y de M. Nieves Robles Botella).

Published in: Education

0 Comments
1 Like
Statistics
Notes
  • Be the first to comment

No Downloads
Views
Total Views
1,434
On Slideshare
0
From Embeds
0
Number of Embeds
2
Actions
Shares
0
Downloads
49
Comments
0
Likes
1
Embeds 0
No embeds

Report content
Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
No notes for slide

Transcript

  • 1. Tema 1 – Óptica Geométrica BLOQUE I: Introducción a la Óptica1.1. Principios y leyes fundamentales de la óptica geométrica.1.1.1. Introducción. Óptica, rama de la física que se ocupa de la propagación y el comportamiento dela luz. En un sentido amplio, la luz es la zona del espectro de radiación electromagnéticaque se extiende desde los rayos X hasta las microondas, e incluye la energía radianteque produce la sensación de visión. El estudio de la óptica se divide en dos ramas, laóptica geométrica y la óptica física. Puesto que existen dos formas de explicar la procedencia de la naturaleza de laluz, nosotros emplearemos la definición de luz como onda electromagnética paraconceptos que aparecerán durante este tema que se centra en la franja de ondas visiblescomprendidas entre las ondas de rayos Ultravioletas hasta las de Infrarrojos. Amarillo-verdoso Azul-verdoso Longitudes de onda corta Longitudes de onda larga Anaranjado Amarillo Violeta Verde Rojo Azul UV IR 400 500 600 700 2 3 4 5 6 1 10 10 10 10 10 10 Luz visible Rayos X Ultravioleta UV Infrarrojos (IR) Figura 1.1. Diagrama del espectro electromagnético en escala logarítmica. ¿Por qué la franja visible únicamente? Nosotros estudiaremos esta parte de laóptica puesto que en la mayoría de eventos y fenómenos que ocurren en la naturaleza sedesprende luz en forma de onda cuya longitud está incluida dentro de esta franja.Además, nuestros propios ojos solamente perciben los sucesos que desprenden luzvisible (¿te imaginas que nuestros ojos fueran sensibles sólo a los Rayos X o a las ondasde radio?, no veríamos absolutamente nada pues los rayos X escasean en la naturaleza onuestra vida sería como una discoteca con luces de colores). También estudiamos estafranja de ondas por su importancia práctica.¿Qué condiciones han de verificarse para poder aplicar la teoría de la ÓpticaGeométrica? El requisito principal que han de cumplir los objetos que estudiamos esque todos ellos emitan luminosidad de longitud de onda mayor a la de la ondaelectromagnética que empleemos para analizar el objeto. Utilizando la Óptica Geométrica podremos explicar muchos conceptos talescomo el de reflexión pero, existirán conceptos que no podrán ser explicados medianteesa teoría. Para explicar estos otros, como por ejemplo el de difracción, tendremos querecurrir a la teoría de la Óptica Ondulatoria. 1Física de la Visión Jaime Martínez Verdú
  • 2. Tema 1 – Óptica Geométrica BLOQUE I: Introducción a la Óptica Tal y como se puede apreciar en la figura, con la Óptica Ondulatoria se puede explicar cualquier concepto de la Óptica Geométrica pero al revés no siempre se cumple. Análogamente, con la Óptica Electromagnética explica cualquier concepto y la Óptica Ondulatoria no puede explicarlos todos.Figura 1.2. Partes de la óptica.1.1.2. Postulados. 1. La luz se propaga en forma de rayo. Las características principales del rayo va a ser su dirección y sentido. 2. Un medio óptico se caracteriza por una cantidad n ≥ 1, denominada índice de refracción definido como el conciente entre la velocidad c de la luz en el vacío y la velocidad v de la luz en el medio, es decir: c n= v 3. Principio de Fermat, Fermat asigna a la luz un comportamiento reflexivo − como el de los sereshumanos − que le permite trazar un camino entre dos puntos siempre que lo va aemprender. Este principio afirma lo siguiente: “El camino que, entre todos los posibles, sigue unrayo de luz para ir de un punto a otro, es aquel en que la luz δL = σ ∫ n(r )ds = 0 (1) B r Aemplea un tiempo mínimo.“Feynman explica así el Principio de Fermat. "Imagina que nos encontramos en la costa, Blejos de la orilla, en un punto A y en el mar,alejado de la orilla, una persona cae de una barcaen un punto B. Nosotros vemos el accidente ypodemos acudir corriendo y luego nadando. ¿Qué Ahacemos? ¿Vamos en línea recta? ¡Sí, sin Figura 1.3. Explicación de Feynman del Principio de Fermatduda!.....Sin embargo, si usáramos un poco más la inteligencia nos daríamos cuenta quees ventajoso correr una distancia un poco mayor por tierra para disminuir la distanciaque debemos nadar, porque nos movemos más lentamente por el mar que por la tierra.Es preferible recorrer un mayor camino para tardar el menor tiempo ya que ésta es lamagnitud que interesa para salvar a la persona de morir ahogada. Pues bien, esto es loque hace la luz para ir de A hacia B cuando cambia de medio de propagación". Como hemos dicho en repetidas ocasiones, la velocidad de propagación de lasondas electromagnéticas y por lo tanto de la luz es c = 3·108 m/s en el vacío;observaciones experimentales realizadas a partir de los inicios del siglo XIX (Fizean,Foucault,...) y medidas posteriores han demostrado que en diferentes medios depropagación (agua, vidrio, plástico,...) la luz tiene diferentes velocidades menores que c. 2Física de la Visión Jaime Martínez Verdú
  • 3. Tema 1 – Óptica Geométrica BLOQUE I: Introducción a la Óptica Podemos entonces definir un número n que llamaremos índice de refracción delmedio de propagación de manera que si v es la velocidad de propagación de la luz en elmedio, sea: c n= (2) v Así, si tenemos diferentes medios en los cuales la luz se propaga convelocidades v1, v2,…, vi podremos asociar a esos medios diferentes índices de refracciónde modo que: n1v1 = n2 v 2 = L = nn v n = c (3) Consideremos ahora un haz de luz que se propaga en un medio de índice derefracción n con velocidad v = c n ; después de un tiempo t habrá recorrido unadistancia S dada por: AB = S = v·t (4) En el mismo tiempo t un haz de luz, en el vacío, recorrería una distanciaA0 B0 = S 0 > S dada por: A0 B0 = S 0 = c·t (5) Teniendo en cuenta la relación (2): A0 B0 = S 0 = n·v·t = n·S (6) A la distancia n·S = ∆ la denominamos camino óptico. El concepto de caminoóptico es obviamente útil para comparar trayectorias luminosas recorridas en distintosmedios que, de otra manera, no serían comparables dado que en cada medio la luz sepropaga con diferente velocidad; en cambio, los diferentes tramos de trayectoria puedencompararse a través de los caminos ópticos asociados, dado que éstos corresponden atrayectorias todas recorridas en el vacío. Así por ejemplo, si un haz de luz recorretramos de trayectoria de longitudes S1, S2, S3,… Si e en medios de índices de refracciónn1, n2, n3,…, ni respectivamente.Figura 1.4. Trayectoria de un haz de luz de tramos S1, S2, S3,…, Si en medios de índices de refracción n1, n2, n3,…, ni. La longitud total de la trayectoria será: L = S 1 + S 2 + L + S i = ∑i S i (7) 3Física de la Visión Jaime Martínez Verdú
  • 4. Tema 1 – Óptica Geométrica BLOQUE I: Introducción a la Óptica Pero el camino óptico total estará dado por: ∆ = n1S1 + n2 S 2 + L + ni S i = ∑ i ni S i (8) El camino óptico ∆ corresponde a la longitud de la trayectoria que la luzrecorrería, en el vacío, en el mismo tiempo que emplea para recorrer la trayectoria delongitud L en los medios de índices de refracción n1, n2, n3,…, ni. Volvamos ahora a considerar un haz de luz que se propaga desde A hasta Batravesando varios medios de diferentes índices de refracción; es evidente que esposible imaginar muchas o más bien infinitas trayectorias que unen los puntos A y B; elprincipio de Fermat nos permite establecer cuál de todas las trayectorias imaginables esla que efectivamente recorre el haz de luz. El principio de Fermat afirma que: La trayectoria real de un haz de luz es la que se asocia al camino ópticomáximo, mínimo o estacionario. Con relación al caso ilustrado en la figura anterior este principio nos dice que detodas las trayectorias que pueden trazarse entre los puntos A y B la que realmenterecorre la perturbación luminosa es la que cumple con la relación: D∆ = D ∑i ni Si = 0 (9)1.1.3. Tipos de materiales. Existen tres grandes grupos de tipos de materiales según su índice de refracción: Medios Homogéneos e Isótropos: En éstos, el índice de refracción permaneceuniforme en la totalidad de su extensión. Medios Heterogéneos: En los cuales el índice de refracción puede variar encada punto (no es constante en la totalidad del medio). Medios Anisótropos: En este tipo de medios, el índice de refracción dependerádel ángulo de incidencia del rayo.1.1.4. Leyes de la Óptica Geométrica. 1. Las trayectorias de los rayos son reversibles. Si un rayo que va de A a B sigue el camino óptico ∆, entonces para ir de B a A seguirá el mismo camino pero en sentido contrario. B A Figura 1.5. Caminos reversibles. 4Física de la Visión Jaime Martínez Verdú
  • 5. Tema 1 – Óptica Geométrica BLOQUE I: Introducción a la Óptica 2. Reflexión. Consideremos un haz de luz que viaja desde el punto A hasta el B reflejándosesobre un espejo plano tal y como se muestra en la figura: A B θ1 h1 θ1 θ2 θ2 h2 M P N x l Figura 1.6. APB es una posible trayectoria para el haz de luz que de A a B. Si n es el índice de refracción asociado al medio, el camino que recorre el haz deluz y el camino óptico asociado tienen un valor de: L = AP + PB = h12 + x 2 + h2 + (l − x ) 2 2 ∆ = n·L = n· AP + n·PB = n· h12 + x 2 + n· h2 + (l − x ) 2 2 Dado que la trayectoria de la luz depende de la posición del punto P o sea delvalor de x, podemos encontrar la trayectoria real aplicando el principio de Fermat, esdecir imponiendo la condición (9): D∆ = D ∑i ni Si = 0 d∆ d  − 2(l − x ) =  n· h12 + x 2 + n· h2 + (l − x )  = n· 2x + n· =0 2 2  dx dx   2 h12 + x 2 2 h2 + (l − x ) 2 2 x = (l − x ) ⇒ sen(θ1 ) = sen(θ 2 ) ⇒ θ1 = θ 2 h +x h2 + (l − x ) 2 2 2 2 1 Lo anterior implica entonces que la trayectoria real del haz de luz es la que seasocia a la condición d∆ dx = 0 (principio de Fermat) y que ésta se satisface paraθ1 = θ 2 en valor absoluto (ley de reflexión). Existen dos tipos de reflexión: Reflexión Especular. Tiene lugar cuando los rayos de luz inciden sobre unasuperficie lisa. Algunos metales como la plata y el aluminio absorben poco la luz blancay si construimos con ellos láminas metálicas muy pulimentadas podemos lograr quereflejen la luz de tal manera que los rayos reflejados se vean con una intensidadcomparable a la de los rayos incidentes. 5Física de la Visión Jaime Martínez Verdú
  • 6. Tema 1 – Óptica Geométrica BLOQUE I: Introducción a la Óptica Reflexión difusa. Todos los cuerpos reflejan partede la luz que incide sobre ellos pero la mayoría producenuna reflexión difusa. La reflexión difusa se origina en loscuerpos que tienen superficies rugosas, no pulidas: esto eslo que nos permite ver los objetos que nos rodean sindeslumbrarnos aunque que estén iluminados por una luz Figura 1.7. Reflexión difusa.intensa. 3. Refracción. Consideremos, por ejemplo, el caso de un haz de luz que se propaga desde elpunto A situado en un medio de índice de refracción n1 hacia un punto B situado en unmedio de índice de refracción n2; en este caso también podemos imaginar infinitastrayectorias las cuales difieren por la posición del punto P sobre la interfase dondeincide la luz (Figura 8). A θ1 h1 θ1 N M P θ2 θ2 h2 x B l Figura 1.8. APB es una posible trayectoria para el haz de luz que de A a B. Si n1 y n2 son los índices de refracción de cada medio, el camino que recorre elhaz de luz y el camino óptico asociado tienen un valor de: L = AP + PB = h12 + x 2 + (l − x )2 + h22 ∆ = n·L = n1 · AP + n 2 ·PB = n1 · h12 + x 2 + n 2 · (l − x ) + h2 2 2 Dado que la trayectoria de la luz depende de la posición del punto P o sea delvalor de x, podemos encontrar la trayectoria real aplicando el principio de Fermat, esdecir imponiendo la condición (9): D∆ = D ∑i ni S i = 0 d∆ d  − 2(l − x ) =  n 1· h12 + x 2 + n 2 · (l − x ) + h2  = n 1 · 2x + n2 · =0 2 2  dx dx   2 h12 + x 2 2 (l − x ) + h2 2 2 n 1· x = n2 · (l − x ) ⇒ n 1·sen(θ1 ) = n 2 ·sen(θ 2 ) Ley de Snell h12 + x 2 h2 + (l − x ) 2 2 6Física de la Visión Jaime Martínez Verdú
  • 7. Tema 1 – Óptica Geométrica BLOQUE I: Introducción a la Óptica - Refracción EXTERNA n1 < n2 y θ1 > θ 2 . Refracción enSuperficies planas - Refracción INTERNA n1 > n2 y θ1 < θ 2 . Reflexión total. Consideremos dos medios de índices de refracción n1 y n2 (conn2 > n1), y supongamos que una fuente de luz esté localizada en el medio de mayoríndice de refracción; nos proponemos analizar qué ocurre cuando la luz incide sobre lainterfase entre los dos medios. De acuerdo con la ley de Snell, n 1·sen(θ1 ) = n2 ·sen(θ 2 ) ydada la condición n2 > n1, el ángulo de refracción θ1 resulta siempre mayor que elángulo de incidencia θ 2 ; esto implica que existe un θ 2,lim para el ángulo de incidenciapara el cual θ1 = π 2 o sea para el cual el rayo refractado es paralelo a la interfase. Figura 1.9. Reflexión total. Los rayos que inciden en la interfase con los ángulos mayores que θ se reflejan en el medio. 2 ,lim Es obvio que el valor del ángulo límite para la reflexión interna total puedecalcularse fácilmente con la condición que si θ 2 = θ 2,lim entonces θ1 = π 2 ; estacondición reemplazada en la ley de Snell para la interfase considerada nos da: π π  Si θ1 = ⇒ sen(θ1 ) = sen  = 1 2 2 n 1·sen(θ1 ) = n 2 ·sen(θ 2 ) ⇒ n 1·1 = n 2 ·sen(θ 2,lim ) ⇒ 1 = sen(θ 2,lim ) n n2  n1  θ 2,lim = Arcsen     n2  Puesto que los rayos se alejan de la normal cuando entran en un medio menosdenso, y la desviación de la normal aumenta a medida que aumenta el ángulo deincidencia hasta que se llega al ángulo crítico, para el que el rayo refractado forma unángulo de 90º con la normal, por lo que avanza justo a lo largo de la superficie deseparación entre ambos medios. Si el ángulo de incidencia se hace mayor que el ángulocrítico, los rayos de luz serán totalmente reflejados. La reflexión total no puedeproducirse cuando la luz pasa de un medio menos denso a otro más denso. 7Física de la Visión Jaime Martínez Verdú
  • 8. Tema 1 – Óptica Geométrica BLOQUE I: Introducción a la Óptica1.1.5. Convenio de signos. I. Para el cálculo de distancias a lo largo del eje z se tomará como sentido positivo lo que quede a la derecha, a no ser que se diga lo contrario. II. El radio de curvatura del espejo que tengamos es positivo si el centro de curvatura está a su derecha. Obviamente, si el radio de curvatura esta a la izquierda del espejo. C F A F C A R R Figura 5. R < 0 Figura 6. R > 0III. Los segmentos normales al eje z serán positivos hacia arriba y negativos si son dirigidos hacia abajo. y C F A C F A y Figura 7. y < 0 Figura 8. y > 0IV. Los ángulos que se tomen respecto a una normal serán positivos si (uniendo de rayo a la normal) tienen sentido horario o, por lo contrario, negativos si tiene sentido antihorario. V. Los ángulos que se tomen respecto al eje z serán positivos si (uniendo de rayo a la normal) tienen sentido antihorario o, por lo contrario, negativos si tiene sentido horario. NORMAL N θ 0 > 0 Respecto a Z y sentido AH θ1 > 0 Respecto a N y sentido H θ1 θ2 θ 2 < 0 Respecto a N y sentido AH θ 3 < 0 Respecto a Z y sentido H θ0 θ3 EJE Z Figura 1.10. Criterio de signos angular. 8Física de la Visión Jaime Martínez Verdú
  • 9. Tema 1 – Óptica Geométrica BLOQUE I: Introducción a la Óptica 1.2. Espejos. Siempre que se observa un objeto por medio de un aparato de óptica, sencillo como un espejo plano, o complicado como un telescopio, lo que se ve no es el objeto sino su imagen con respecto a dicho aparato de óptica, imagen que puede ser del mismo tamaño que el objeto, más grande, pequeña, derecha, invertida y real o virtual. Las imágenes se forman porque, cuando los rayos de luz que provienen de un objeto luminoso o iluminado llegan a un aparato de óptica, lo único que les sucede es que cambian de dirección. 1.2.1. Espejo plano. Por convenio, una imagen será real cuando los rayos reflejados tocan la imagen producida por el objeto y será una imagen virtual cuando no lo toque. Por ejemplo, cuando un individuo se coloca frente a un espejo plano, de todos sus puntos salen rayos de luz que llegan al espejo, cambian de dirección y se reflejan en direcciones divergentes por lo que no se cruzan, pero sus prolongaciones sí lo hacen precisamente donde se forma su imagen, la cual se encuentra detrás del espejo, y no se puede recibir en una pantalla, característica que distingue, como ya indicamos, a las imágenes virtuales. E Espejo A pesar de usar la palabra “virtual”, se sabe, por la experiencia cotidiana, qué tan “real” puede parecer una imagen D virtual y qué tan definida es su localización C en el espacio que se encuentra por detrás del espejo, aunque este espacio pueda, de hecho, estar ocupado por una pared de B ladrillos. Las imágenes en un espejo plano defieren de los objetos en el hecho de que la izquierda se intercambia por la derecha. Así por ejemplo, si se hace girar un trompo en el mismo sentido de rotación de las A F manecillas de un reloj, su imagen vista a Fuente de luz Imagen través de un espejo vertical plano, girará enFigura 1.11. Imagen de un objeto en un espejo plano. contra de las manecillas del reloj. Las leyes de la reflexión afirman que el ángulo de incidencia es igual al ángulo de reflexión, y que el rayo incidente, el rayo reflejado y la normal en el punto de incidencia se encuentran en un mismo plano. Si la superficie del segundo medio es lisa, puede actuar como un espejo y producir una imagen reflejada como se observa en la figura anterior. Un punto de A emite rayos en todas las direcciones. Los dos rayos que inciden sobre el espejo en B y C, por ejemplo, se reflejan como rayos BD y CE. Para un observador situado delante del espejo, esos rayos parecen venir del punto F que está detrás del espejo. De las leyes de reflexión se deduce que CF y BF forman el mismo ángulo con la superficie del espejo que AC y AB. En este caso, en el que el espejo es plano, la imagen del objeto parece situada detrás del espejo y separada de él por la misma distancia que hay entre éste y el objeto que está delante. 9 Física de la Visión Jaime Martínez Verdú
  • 10. Tema 1 – Óptica Geométrica BLOQUE I: Introducción a la Óptica1.2.2. Espejo parabólico. En este espejo, todas las proyecciones de los rayos reflejados van a ir a parar aun mismo punto, conocido como foco. Generalmente, este tipo de espejos son muyempleados en telescopios ya que poseen la ventaja de eliminar la aberración esférica(defecto que se produce en la imagen formada por un espejo esférico por el cual losrayos de luz no convergen a un punto único, sino a una serie de puntos, cuyas distanciasal espejo son menores para los rayos de luz más próximos a la periferia del espejo). Generalmente suele utilizarse la aproximación paraxial en un espejo esféricopara conseguir que el comportamiento del mismo sea lo más cercano al que posee unespejo parabólico. Figura 1.12. Imagen de un haz de luces en un espejo parabólico. Otro uso muy común para los espejos con forma parabólica es el de componentebásico para las antenas parabólicas. De este modo, los rayos de ondas electromagnéticasprovenientes del infinito, por así decirlo, pueden concentrarse en el foco de la parábola.1.12.1. Espejo elíptico. Este tipo de espejos se caracteriza principalmente porque los rayos de luz no sefocalizan en el foco de donde proviene sino que los rayos provenientes de un foco seconcentran en el otro foco restante. Figura 1.13. Imagen de un haz de luz en un espejo elíptico.1.12.2. Espejo esférico. Entre los espejos que no son planos, los más importantes son los esféricos, esdecir, aquellos cuya forma corresponde a un casquete esférico. Los espejos esféricospueden ser de dos clases: cóncavos, que reflejan la luz por dentro, y los convexos, queson los que lo hacen por fuera. Para poder estudiar los fenómenos ópticos que sepresentan en los espejos esféricos, se necesita considerar las características que seindicarán en seguida. 10Física de la Visión Jaime Martínez Verdú
  • 11. Tema 1 – Óptica Geométrica BLOQUE I: Introducción a la Óptica En un espejo esférico podemos definir las siguientes partes:Vértice: Es el centro A del espejo.Centro de curvatura: Es el centro de la esfera de la que es parte el espejo considerado.La distancia entre el vértice A y el centro de curvatura es R.Eje principal o eje del espejo: Es la recta CA que pasa por el centro de curvatura y elvértice.Foco F: Es el punto que se encuentra a la mitad de la distancia entre el centro decurvatura y el vértice. Se define como el punto imagen cuando sobre un espejo incideluz paralela a su eje (objeto muy distante). La distancia entre el punto focal F y elvértice A se denomina distancia focal f.Aumento lateral: La relación entre la altura de la imagen y la altura del objeto sedenomina aumento lateral. C F A f R Figura 1.14. Partes de un espejo esférico. Podemos encontrar gráficamente la imagen de cualquier punto fuera del eje,utilizando los siguientes procedimientos: • Un rayo que incide en el espejo después de haber pasado (o su prolongación) a través del centro de curvatura C , regresa a través de su mismo camino. Esto se debe a que tal rayo es perpendicular al espejo y por la ley de la reflexión si el ángulo de incidencia es 90º, el de reflexión también será 90º. • Un rayo que incide en el espejo paralelo a su eje, pasa (o su prolongación) a través del punto focal F. • Un rayo que incide en el espejo después de pasar (el rayo o su prolongación) a través del punto focal, emerge paralelo al eje. Antes de poder analizar los fenómenos que se producen cuando se coloca un objetodelante de un espejo, hemos de conocer las siguientes fórmulas básicas: 11Física de la Visión Jaime Martínez Verdú
  • 12. Tema 1 – Óptica Geométrica BLOQUE I: Introducción a la Óptica  n σ = f − σ  y f Altura del objeto   y f Altura de la imagen 1 1 1    + = ⇒ s f Distancia del objeto al vértice  s s f s f Distancia de la imagen al vértice  y s  β = = − β f Aumento lateral   y sTrazado de rayos. y y C F A C F A y y s s s s Figura 19. Imagen real Figura 20. Imagen real y y C F y A C F A y s s s s Figura 21. Imagen virtual Figura 22. Imagen virtual Si observamos con detenimiento la primera y última figura podemos observarque a medida que nos alejamos del espejo, la imagen disminuye su tamaño. 12Física de la Visión Jaime Martínez Verdú
  • 13. Tema 1 – Óptica Geométrica BLOQUE I: Introducción a la Óptica 13Física de la Visión Jaime Martínez Verdú
  • 14. Tema 1 – Óptica Geométrica BLOQUE I: Introducción a la Óptica1.3. Superficies Refractoras Esféricas. 14Física de la Visión Jaime Martínez Verdú
  • 15. Tema 1 – Óptica Geométrica BLOQUE I: Introducción a la Óptica1.4. Lentes. 15Física de la Visión Jaime Martínez Verdú
  • 16. FÍSICA INTERACTIVA PARA INGENIEROS 1DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN OPTICA GEOMÉTRICA SUPERFICIES REFRACTORAS Y LENTES1 SUPERFICIES REFRACTORAS ESFERICASEs sabido que prácticamente todos los instrumentos ópticos utilizan lentes y que las lentes tienensuperficies esféricas o planas que pueden fabricarse, por métodos mecánicos, a un costorazonable; es importante entonces analizar que ocurre a un haz de luz que atraviesa una superficierefractora esférica que normalmente es una de las superficies de las lentes.Se llama superficie refractora esférica (S.R.E.) a una porción de superficie esférica que separados medios de diferentes índices de refracción.Si suponemos que la luz viaja de izquierda a derecha las superficies refractoras puedenclasificarse de acuerdo con la concavidad con respecto a la luz incidente en cóncavas y convexastal como se muestra en la Figura 1. n1 n2 n1 n2 Luz Luz V C C V a) b) Figura 1. Superficies refractoras esféricas: a) convexa, b) cóncava.La Figura también nos muestra que el centro de curvatura de la superficie se encuentra a laderecha o a la izquierda según la superficie sea convexa o cóncava..
  • 17. FÍSICA INTERACTIVA PARA INGENIEROS 2DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍNA la recta que pasa por el centro de curvatura de la S.R.E. y por su centro geométrico o vértice sele llama eje óptico; las propiedades de convergencia de las S.R.E. dependen de su concavidad conrespecto a la luz incidente y de los índices de refracción de los dos medios. Si n2 > n1 (de aquíen adelante consideraremos únicamente este caso) las superficies refractoras convexas sonconvergentes, en el sentido que los rayos refractados convergen en algún punto produciendo unaimagen real del objeto fuente, mientras las superficies cóncavas son divergentes, en el sentidoque los rayos refractados no se cruzan dando así lugar a una imagen virtual del objeto fuente ( 1 ) . P θ1 θ2 O V I C n1 n2 N(a) (a) θ 2 θ1 O V I C n1 n2 (b) (b) Nota: La línea roja es la prolongación del rayo Figura 2 Propiedades de convergencia de las S.R.E. Si n2 > n1 , la S.R.E. convexa es convergente (a), mientras la S.R.E. cóncava es divergente, (b).( 1) Las propiedades de convergencia se invierten si n2 < n1 como puede inmediatamente comprobarse mediante la aplicación de la Ley de Snell.
  • 18. FÍSICA INTERACTIVA PARA INGENIEROS 3DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN2. Propiedades focales.Las S.R.E. tienen dos focos que pueden ser reales o virtuales según la superficie sea convexa ocóncava (para el caso n2 > n1 ).Para el caso de una superficie convexa, y por lo tanto convergente, los focos pueden definirse así:Primer foco: Punto desde el cual divergen los rayos que, refractados por la superficie esférica, sevuelven paralelos al eje óptico. F1 V C n1 n2 Figura 3. Primer foco de una S.R.E. convexa .o también: punto en el cual debe situarse el objeto fuente para que la imagen producida por laS.R.E. esté localizada en el infinito.Segundo foco: Punto en el cual convergen los rayos refractados por la S.R.E. cuando incidenparalelos al eje óptico o también punto en el cual la S.R.E. forma la imagen de un objeto fuentelocalizado en el infinito.
  • 19. FÍSICA INTERACTIVA PARA INGENIEROS 4DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN V C F2 n1 n2 Figura 4. Segundo foco de una S.R.E. convexa .Para una superficie cóncava:Primer foco: punto en el cual convergerían (si no hubiera S.R.E.) los rayos incidentes quedesviados por la S.R.E. se vuelven paralelos al eje óptico. C V F1 n2 n1 Nota: Las líneas naranja son prolongaciones de rayos Figura 5. Primer foco de una S.R.E. cóncava.Como puede deducirse de la figura se trata de un foco virtual dado que en el punto F1 no hayconcentración de energía; en este caso el primer foco se encuentra a la derecha de la S.R.E..Segundo foco: punto desde el cual aparentemente divergen los rayos refractados que incidenparalelos al eje óptico.
  • 20. FÍSICA INTERACTIVA PARA INGENIEROS 5DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN F2 C V N1 n2 Nota: Lsa líneas naranja son prolongaciones de rayos Figura 6. Segundo foco de una S.R.E. cóncava.F2 también es un foco virtual y está localizado a la izquierda de la superficie.También se definen, para la S.R.E., los planos focales que son los planos perpendiculares al ejeóptico del sistema y que pasan por los focos.Para las superficies convexas:Primer plano focal (REAL)Lugar geométrico de los puntos desde los cuales divergen los rayos que cuando inciden sobre lasuperficie esférica se refractan paralelos entre síSegundo plano focal (REAL)Lugar geométrico de los puntos en los cuales convergen los rayos refractados por la S.R.E.cuando inciden paralelos entre sí.Para las superficies cóncavas:Primer plano focal (VIRTUAL)Lugar geométrico de los puntos en los cuales convergerían los rayos incidentes (si no hubieraS.R.E.) que refractados por la superficie esférica se vuelven paralelos entre sí.
  • 21. FÍSICA INTERACTIVA PARA INGENIEROS 6DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍNSegundo plano focal (VIRTUAL)Lugar geométrico de los puntos desde los cuales aparentemente divergen los rayos refractadosproducidos por rayos incidentes paralelos entre sí.La siguiente figura ilustra gráficamente las anteriores definiciones. Pf1 F1 V C n1 n2 n1 n2 Pf2 V C F2 n1 n2 Pf1 C V F1 Nota: Lsa líneas naranja son prolongaciones de rayos
  • 22. FÍSICA INTERACTIVA PARA INGENIEROS 7DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN Pf F C V n1 n2 Nota: Lsa líneas naranja son prolongaciones de rayos Figura 7. Planos focales de S.R.E. convexa y cóncava.3. Fórmula de Gauss para S.R.E.Vamos ahora a obtener una relación matemática que nos permita encontrar la posición de laimagen producida por una S.R.E. cuando se conozcan sus características ( n1 , n2 , R ) y laposición del objeto fuente. Como hicimos para los espejos esféricos establecemos antes unasconvenciones de signo que nos garanticen la validez de la fórmula cualquiera que sea lasuperficie considerada.- La luz viaja de izquierda derecha.- Son positivas las distancias que se miden de izquierda a derecha y negativas aquellas que se miden de derecha a izquierda.- La distancia p del objeto a la S.R.E. se mide desde el objeto hacia el vértice.- La distancia q entre la S.R.E. y la imagen se mide desde el vértice hacia la imagen.- La primera distancia focal f1 se mide desde el primer foco F1 hacia el vértice; por lo tanto f1 > 0 si el foco F1 es real, f1 < 0 si el foco F1 es virtual.- La segunda distancia focal f 2 se mide desde el vértice hacia el segundo foco F2 ; por lo tanto f 2 es positiva o negativa según sea real o virtual el segundo foco.
  • 23. FÍSICA INTERACTIVA PARA INGENIEROS 8DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN- El radio de curvatura R se mide desde el centro de curvatura C hacia el vértice; por lo tanto R es positivo o negativo según la superficie sea convexa o cóncava.Construyamos entonces la imagen I de un objeto puntual localizado sobre el eje óptico mediantela simple aplicación de la ley de Snell a un rayo cualquiera (pero paraxial) que incide sobre laS.R.E. n1 n2 θ1 P β θ2 o α v γ K c p r q Figura 8. Construcción de la imagen producida por una S.R.E.Con relación a la Figura 8 aplicamos el teorema de los senos a los triángulos OPC y CPI yobtenemos: p+R R q− R R = ; = sen (π − θ1 ) sen α sen θ 2 sen γde donde: p+ R q−R sen θ 1 = .sen α ; sen θ 2 = .sen γ R REs evidente que de acuerdo con la ley de Snell: n1 sen θ1 = n2 sen θ 2 , lo que implica: p+R q−R n1 .sen α = n2 .sen γ (1) R R
  • 24. FÍSICA INTERACTIVA PARA INGENIEROS 9DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍNEn la aproximación de rayos paraxiales los ángulos α, γ son pequeños de manera quesen α ≅ tan α y sen γ ≅ tan γ ; igualmente K , que es el pie de la perpendicular trazadadesde P hacia el eje óptico, coincide aproximadamente con V , de manera que OK ≅ OV = p ;KI ≅ VI = q . hTeniendo en cuenta estas aproximaciones podemos remplazar en la ( sen α ≅ tan α ≅ 1) , p hsen γ ≅ tan γ ≅ y obtenemos: q p+ R h q− R h n1 . . = n2 . . R p R qde donde se obtiene fácilmente: n1 n2 n2 − n1 + = (2) p q Rque es la llamada fórmula de Gauss para superficies refractoras esféricas.A través de la (2) podemos facilmente obtener la localización de los focos teniendo en cuenta quesi p = f1 entonces q = ∞ y viceversa si q = f 2 entonces p = ∞ , lo cual implica: n1 . R f1 = (3) n2 − n1 n2 . R f2 = (4) n2 − n1de donde: f1 n1 f2 = (5) n2es decir que las distancias focales son p roporcionales a los índices de refracción de los dosmedios separados por la S.R.E..
  • 25. FÍSICA INTERACTIVA PARA INGENIEROS 10DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN4. Construcción gráfica de imágenes.Sin recurrir a la fórmula de Gauss puede determinarse, con buena aproximación, la posición de laimagen producida por una S.R.E. realizando construcciones gráficas de acuerdo con las siguientesreglas:a) Un rayo que para por el centro de curvatura no se desvía.b) Un rayo que pase por (o se dirija hacia) el primer foco F1 (según éste sea real o virtual), se refracta paralelamente al eje óptico.c) Un rayo que incide paralelamente al eje óptico se refracta pasando por el segundo foco si éste es real, o de manera que su prolongación pase por el segundo foco F2 si éste es virtual.La Figura siguiente muestra algunos casos de interés. n1 n2 O C V I n1 n2 I O C F1 V F2 Nota : Las líneas naranja son prolongaciones de los rayos
  • 26. FÍSICA INTERACTIVA PARA INGENIEROS 11DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN n1 n2 O I V F2 C F1 Nota : Las líneas naranja son prolongaciones de los rayos Figura 9. Tres diversos casos de construcción gráfica de imágenes.Como puede verse en la Figura 9 una S.R.E. convexa (cuando n2 > n1 ) produce siempre imagenreal e invertida excepto cuando p < f 1 , caso en el cual se produce una imagen virtual y derecha;una S.R.E. cóncava (para n2 > n1 ) siempre produce imágenes virtuales y derechas.5 Aumento de una S.R.E.Habiendo definido el aumento a través de la relación A = − I 0 podemos encontrar el aumentode una S.R.E. haciendo referencia a la Figura 10. n1 n2 B L O V C D A I G E Figura 10. Identificación de triángulos semejantes para la determinación del aumento de una S.R.E.
  • 27. FÍSICA INTERACTIVA PARA INGENIEROS 12DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍNHay varios pares de triángulos semeja ntes:a) La semejanza de los triángulos ABC y CDE nos da : I q−R A=− =− (6) 0 p+Rb) La semejanza de los triángulos ABF1 y F1CV : I f1 A=− =− (7) 0 p − f1c) La semejanza de los triángulos LVF2 y F2 DE : I q − f2 A=− =− (8) 0 f2
  • 28. FÍSICA GENERAL PARA INGENIERÍADEPARTAMENTO DE FÍSICA. .UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN OPTICA GEOMETRICA LENTES DELGADASUna lente es un sistema óptico limitado por dos superficies refractoras que tienen un eje encomún; por lo general las dos superficies son porciones de esfera o de plano y encierran un mediocuyo índice de refracción es diferente con respecto a los índices de refracción que están a amboslados de la lente.Cuando el espesor, medido en la dirección del eje de la lente, es lo suficientemente pequeño paraque pueda suponerse que la desviación de un rayo luminoso tenga lugar únicamente en el planoque pasa por el centro de la lente, ésta se denomina lente delgada. Las lentes delgadas seclasifican según la forma y según las propiedades de convergencia así: Lentes Convergentes Lentes Divergentes a) b) c) a1 ) 1 b) c) 1 Figura 1. Propiedades de convergencia de lentes en aire. a) Biconvexa b) plano-convexa c) menisco-convergente. a) Biconvexa b) plano-cóncava c) menisco-divergente.Es importante anotar que las propiedades de convergencia de una lente dependen de los mediossituados a los lados de ésta y que cuando estos medios no se especifican se entiende que la lenteestá sumergida en aire.Para estudiar los efectos de una lente delgada sobre los rayos luminosos, así como hicimos en elanálisis de los anteriores sistemas ópticos, utilizaremos la aproximación de rayos paraxiales ysupondremos que la lente sea lo suficientemente delgada para que las distancias con respecto a la 1
  • 29. FÍSICA GENERAL PARA INGENIERÍADEPARTAMENTO DE FÍSICA. .UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍNlente puedan medirse con respecto a un plano perpendicular al eje óptico del sistema y que pasepor el centro de la lente. A V1 C V2 C2 C1 B Figura 2. Lente delgada. V1 ,V2 vértices de las dos S.R.E. que conforman la lente, C1 ,C2 centros de curvatura de las S.R.E.; C centro de la lente; AB plano con respecto al cual se miden las distancias a la lente.1 Propiedades focales.Para las lentes convergentes se denomina primer foco F1 el punto desde el cual divergen losrayos incidentes que cuando pasan por la lente se refractan paralelos al eje óptico. F1 f1 2
  • 30. FÍSICA GENERAL PARA INGENIERÍADEPARTAMENTO DE FÍSICA. .UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN F2 f2 Figura 3. Focos reales de una lente convergente.Por otra parte se define segundo foco F2 el punto en el cual convergen los rayos refractadosque inciden, sobre la lente, paralelos al eje óptico.Si por los dos focos trazamos planos perpendiculares al eje óptico de la lente se obtienen losplanos focales que gozan de las siguientes propiedades:Primer plano focal: lugar geométrico de los puntos desde los cuales divergen los rayosincidentes que se refractan paralelos entre sí.Segundo plano focal: lugar geométrico de los puntos en los cuales convergen los rayosrefractados cuando inciden, sobre la lente, paralelos entre sí. Pf1 F1 C 3
  • 31. FÍSICA GENERAL PARA INGENIERÍADEPARTAMENTO DE FÍSICA. .UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN Pf2 F2 C Figura 4. Planos focales de una lente convergente.Para las lentes divergentes se denomina primer foco F1 el punto hacia el cual aparentementeconvergen los rayos incidentes que se refractan paralelos al eje óptico. F1 f1 F2 f2 Figura 5. Focos virtuales de una lente divergente.Por otra parte se define segundo foco F2 el punto desde el cual aparentemente divergen losrayos refractados que inciden paralelos al eje óptico. 4
  • 32. FÍSICA GENERAL PARA INGENIERÍADEPARTAMENTO DE FÍSICA. .UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍNSi por los dos focos trazamos planos perpendiculares al eje óptico de la lente, se obtienen losplanos focales que gozan de las siguientes propiedades:Primer plano focal: lugar geométrico de los puntos hacia los cuales convergerían (en ausenciade la lente) los rayos incidentes que se refractan paralelos entre sí.Segundo plano focal: lugar geométrico de los puntos desde los cuales aparentemente divergenlos rayos refractados que inciden paralelos entre sí. Pf1 F1 Pf2 F2 Figura 6. Planos focales de una lente divergente. 5
  • 33. FÍSICA GENERAL PARA INGENIERÍADEPARTAMENTO DE FÍSICA. .UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍNComo puede d educirse de las definiciones y de las Figuras 3, 4, 5, 6, los focos y los planosfocales son reales para lentes convergentes y virtuales para lentes divergentes.2 Fórmula de Gauss para lentes delgadas.Utilizando la aproximación de rayos paraxiales y las convenciones de signo que ya hemosestablecido para las S.R.E. vamos ahora a obtener una relación matemática mediante la cual esposible calcular la posición de la imagen producida por una lente delgada cuando se conozca laposición de objeto fuente y las características del sistema óptico. Para lograr el objetivodeterminaremos la posición de la imagen producida por la primera S.R.E. y utilizaremos esaimagen como objeto fuente para la segunda S.R.E. Con relación a la Figura 7 , en la cual se haexagerado el espesor de la lente, calculamos a través de la fórmula para superficies refractoras , laposición de la imagen I producida por la primera S.R.E. así: n1 n2 n − n1 + = 2 (1) p q R1 n1 n2 n3 θ2 θ3 θ4 θ1 O C2 V1 C V2 C1 I I´ OV 1 = p ; V1C 1 = R1 ; V2C 2 = R2 ; V1 I = q ; V2 I = q V1V2 = x ; V2 I = p , C = centro de la lente. Figura 7. Imagen producida por una lente. 6
  • 34. FÍSICA GENERAL PARA INGENIERÍADEPARTAMENTO DE FÍSICA. .UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍNDe acuerdo con lo que hemos dicho la imagen I funciona ahora como objeto fuente de lasegunda superficie de la cual dista V2 I = p . Dado que, en este caso, esta distancia se recorrede derecha a izquierda, I es una fuente virtual para la segunda superficie y por lo tanto p esnegativa, de manera, que para la segunda S.R.E. podemos escribir: n2 n3 n − n2 − + = 3 (2) p q R2Con relación a la Figura 7, es evidente que q = x + p , pero si la lente es delgada x ≅ 0 y porlo tanto podemos decir que V1 ≡ C ≡ V2 y q ≅ p . Combinando las ecuaciones (1), (2) seobtiene: n1 n3 n − n1 n3 − n2 + = 2 + (3) p q R1 R2Esta última ecuación es la que generalmente se denomina fórmula de Gauss para lentes delgadasen su forma más general.Si la lente está sumergida en aire n1 ≅ n3 ≅ 1 y está hecha con un material de índice derefracción n la relación (3) se simplifica así:1  1 1  + = ( n − 1)  1 1 −  (4) p q  R1 R2 Es fácil ver que en este caso( 1 ) las dos distancias focales f1 y f 2 son iguales, de manera quepuede hablarse de la distancia focal f de la lente, la cual está dada por cualquiera de las doscondiciones p = f y q = ∞ ó p = ∞ y q = f , en ambos casos se obtiene, según la (4):  1 1 = ( n − 1)  1 −  (5) f  R1 R2 Esta última relación se denomina fórmula del constructor de lentes porque evidentementepermite construir una lente con una distancia focal predeterminada escogiendo el material con un( 1 ) y en todos los casos en los cuales la lente está rodeada por un solo medio. 7
  • 35. FÍSICA GENERAL PARA INGENIERÍADEPARTAMENTO DE FÍSICA. .UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍNoportuno índice de refracción n y moldeándolo mediante superficies esféricas con los radios decurvatura necesarios.A la magnitud P = 1 f se le denomina poder de la lente; esta magnitud es obviamente positivapara las lentes convergentes (que tienen distancia focal positiva dado que los focos son reales) ynegativa para las lentes divergentes (dado que éstas tienen focos virtuales y por lo tanto distanciafocal negativa); su unidad de medida es la dioptría equivalente naturalmente a m −1 ; por ejemplouna lente cuyo poder sea P = +2 dioptrías es una lente convergente cuya distancia focal es 0.5metros.Combinando las ecuaciones (4) y (5) se obtiene: 1 1 1 + = (6) p q fecuación formalmente idéntica a la ecuación para los espejos esféricos.3 Construcción gráfica de imágenes.Sin recurrir a la fórmula de Gauss es posible determinar, con buena aproximación, la posición dela imagen producida por una lente delgada teniendo en cuenta que los rayos que pasan por (o sedirigen hacia) el primer foco se desvían paralelos al eje óptico, los que inciden paralelos al ejeóptico se refractan de manera que pasan por (o divergen como si se generaran en) el segundo focoy que los rayos que pasan por el centro de la lente no sufren desvia ción. O F1 F2 I (a) 8
  • 36. FÍSICA GENERAL PARA INGENIERÍADEPARTAMENTO DE FÍSICA. .UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN Figura 8. a) Imagen real producida por una lente convergente. b) Unico caso ( p < f ) en el cual una lente convergente forma una imagen virtual. c) Una lente divergente siempre produce imagen virtual.Con estas simples reglas podemos visualizar la imagen de cualquier objeto-fuente y determinar sidicha imagen es real o virtual mediante construcciones gráficas, algunas de las cuales sepresentan en la Figura 8.Tal como se muestra en la Figura 8 una lente convergente forma una imagen real e invertidasiempre que p > f , pero forma una imagen virtual y derecha cuando p < f (éste es el casoque se presenta cuando se utiliza una lente convergente como lupa).Por otra parte una lente divergente produce siempre imágenes virtuales y derechas cualquiera quesea la posición del objeto-fuente.4 Aumento de una lente - Fórmula de Newton.Si definimos, como en los casos anteriores, el aumento de una lente a través de la relación 9
  • 37. FÍSICA GENERAL PARA INGENIERÍADEPARTAMENTO DE FÍSICA. .UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN I A=− 0donde el signo negativo da cuenta de la inversión de la imagen real con respecto al objeto-fuente,es posible calcular el aumento estableciendo relaciones de proporcionalidad entre ladoshomólogos en varias parejas de triángulos semejantes que pueden determinarse analizando laFigura 9. AC = p ; CD = q ; F1C = f ; CF 2 = f ; RF 1 = x1 ; F2 D = x 2 AB = GC = 0 ; CH = DE = I Figura 9. Determinación del aumento de una lente.a) A partir de los triángulos semejantes ABF1 y F1CH se obtiene: I f A=− = − (7) 0 x1b) Si consideramos los triángulos semejantes GCF2 y F2 DE se obtiene: I x A= − = − 2 (8) 0 fc) A través de los triángulos semejantes ABC y CHE obtenemos: I q A=− = − (9) 0 p 10
  • 38. FÍSICA GENERAL PARA INGENIERÍADEPARTAMENTO DE FÍSICA. .UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍNLas tres relaciones que hemos encontrado para el aumento son obviamente equivalentes; sinembargo combinando las ecuaciones (7), (8) se obtiene: x1 . x2 = f 2 (10)esta relación denominada fórmula de Newton es particularmente interesante porque permitelocalizar la imagen producida por la lente (en este caso su distancia con respecto al segundo foco)conociendo la distancia focal de la lente y la distancia del objeto-fuente al primer foco; esto nospermite decir que la fórmula de Newton es equivalente a la fórmula de Gauss. 11
  • 39. Utilizando la aproximación de rayos paraxiales y las convenciones de signo queya hemos establecido para las S.R.E. vamos ahora a obtener una relación matemáticamediante la cual es posible calcular la posición de la imagen producida por una lentedelgada cuando se conozca la posición de objeto fuente y las características del sistemaóptico. Para lograr el objetivo determinaremos la posición de la imagen producida por laprimera S.R.E. y utilizaremos esa imagen como objeto fuente para la segunda S.R.E.Con relación a la Figura , en la cual se ha exagerado el espesor de la lente, calculamos através de la fórmula para superficies refractoras , la posición de la imagen I producidapor la primera S.R.E. así: n1 n2 n2 − n1 − + = (1) s s R1 De acuerdo con lo que hemos dicho la imagen I funciona ahora como objetofuente de la segunda superficie de la cual dista V2I’ = p’. Dado que, en este caso, estadistancia se recorre de derecha a izquierda, I’ es una fuente virtual para la segundasuperficie y por lo tanto p’ es negativa, de manera, que para la segunda S.R.E. podemosescribir: n2 n n − n2 − + 3 = 3 (2) s + x s R2Con relación a la Figura 7, es evidente que q = x + p, pero si la lente es delgada x ≅ 0 ypor lo tanto podemos decir que V1 ≡ C ≡ V2 y q’ ≅ p’. Combinando las ecuaciones (1),(2) se obtiene: n1 n 2 n 2 − n1  n1 n 2 n 2 − n1 − + =  − s + s = R s s R1  ⇒ 1 n n n − n2  n n n − n2 − 2 + 3 = 3 − 2 + 3 = 3 + s + x s R2   s + x s R2 n1 n 2  n 2 n  n − n 2 n2 − n1 − + + − + 3= 3 + s s  s + x s  R2 R1
  • 40. Sustituyendo los valores correspondientes tenemos lo siguiente: n1 n2  n2 n  n − n2 n2 − n1 n n n n n − n2 n2 − n1− + + − + 3= 3 + ⇒− 1 + 2 − 2 + 3 = 3 + s s  s + x s  R2 R1 s s s +0 s R2 R1 n1 n3 n3 − n2 n 2 − n1 + = − + s s R2 R1 Como nosotros sabemos que el valor del índice de refracción n1 y el n3 es elmismo ya que es el del agua, pues podemos simplificar la ecuación anterior: nag − n2 n2 − nag  1 1  ⇒ nag · − +  = (nag − n2 )· nag nag  1 1 − + = + R − R  s s R2 R1  s s   2 1  Para obtener el valor del foco basta conocer que cualquier rayo proveniente delinfinito (s = + ∞) irá a parar al foco (s’’ = f ) o viceversa:  1 1  1 nag − nlente  1 1 nag · 0 +  = (nag − nlente )·  1 nag R1 R2  − ⇒ =  − ⇒ f =  f      R2 R1  f nag R   2 R1  nag − nlente R1 + R2 Por tanto, queda demostrado que la distancia focal de un sistema de lentesdepende de el media donde esté sumergido.
  • 41. Gráficas y diagramas.Cuando se habla en fotometría de magnitudes y unidades de media se definen unaserie de términos y leyes que describen el comportamiento de la luz y sirven comoherramientas de cálculo. Pero no hemos de olvidar que las hipótesis utilizadas paradefinirlos son muy restrictivas (fuente puntual, distribución del flujo esférica yhomogénea, etc.). Aunque esto no invalida los resultados y conclusiones obtenidas,nos obliga a buscar nuevas herramientas de trabajo, que describan mejor la realidad,como son las tablas, gráficos o programas informáticos. De todos los inconvenientesplanteados, el más grave se encuentra en la forma de la distribución del flujo luminosoque depende de las características de las lámparas y luminarias empleadas. Influencia de la luminaria en la forma del haz de luz.A menudo no le daremos mucha importancia a este tema, como pasa en la iluminaciónde interiores, pero será fundamental si queremos optimizar la instalación o en temascomo la iluminación de calles, decorativa, de industrias o de instalaciones deportivas.A continuación veremos los gráficos más habituales en luminotecnia: • Diagrama polar o curva de distribución luminosa. • Diagramas isocandela. o Alumbrado por proyección. o Alumbrado público. Proyección azimutal de Lambert. • Curvas isolux.Diagrama polar o curvas de distribución luminosaEn estos gráficos la intensidad luminosa se representa mediante un sistema de trescoordenadas (I,C, ). La primera de ellas I representa el valor numérico de laintensidad luminosa en candelas e indica la longitud del vector mientras las otrasseñalan la dirección. El ángulo C nos dice en qué plano vertical estamos y mide lainclinación respecto al eje vertical de la luminaria. En este último, 0º señala la verticalhacia abajo, 90º la horizontal y 180º la vertical hacia arriba. Los valores de C utilizadosen las gráficas no se suelen indicar salvo para el alumbrado público. En este caso, losángulos entre 0º y 180º quedan en el lado de la calzada y los comprendidos entre 180ºy 360º en la acera; 90º y 270º son perpendiculares al bordillo y caen respectivamenteen la calzada y en la acera. 1
  • 42. Con un sistema de tres coordenadas es fácil pensar que más que una representaciónplana tendríamos una tridimensional. De hecho, esto es así y si representamos en elespacio todos los vectores de la intensidad luminosa en sus respectivas direcciones yuniéramos después sus extremos, obtendríamos un cuerpo llamado sólidofotométrico. Pero como trabajar en tres dimensiones es muy incómodo, se corta elsólido con planos verticales para diferentes valores de C (suelen ser uno, dos, tres omás dependiendo de las simetrías de la figura) y se reduce a la representación planade las curvas más características.En la curva de distribución luminosa, los radios representan el ángulo y lascircunferencias concéntricas el valor de la intensidad en candelas. De todos los planosverticales posibles identificados por el ángulo C, solo se suelen representar los planosverticales correspondientes a los planos de simetría y los transversales a estos (C = 0ºy C = 90º) y aquel en que la lámpara tiene su máximo de intensidad. Para evitar tenerque hacer un gráfico para cada lámpara cuando solo varía la potencia de esta, losgráficos se normalizan para una lámpara de referencia de 1000 lm. Para conocer losvalores reales de las intensidades bastará con multiplicar el flujo luminoso real de lalámpara por la lectura en el gráfico y dividirlo por 1000 lm.Matriz de intensidades luminosasTambién es posible encontrar estos datos en unas tablas llamadas matriz deintensidades luminosas donde para cada pareja de valores de C y obtenemos unvalor de I normalizado para una lámpara de flujo de 1000 lm. 2
  • 43. Diagramas isocandelaA pesar de que las curvas de distribución luminosa son herramientas muy útiles yprácticas, presentan el gran inconveniente de que sólo nos dan información de lo queocurre en unos pocos planos meridionales (para algunos valores de C) y no sabemosa ciencia cierta qué pasa en el resto. Para evitar estos inconvenientes y conjugar unarepresentación plana con información sobre la intensidad en cualquier dirección sedefinen las curvas isocandela.En los diagramas isocandelas se representan en un plano, mediante curvas de nivel,los puntos de igual valor de la intensidad luminosa. Cada punto indica una direccióndel espacio definida por dos coordenadas angulares. Según cómo se escojan estosángulos, distinguiremos dos casos: • Proyectores para alumbrado por proyección. • Luminarias para alumbrado público. Proyección azimutal de Lambert.En los proyectores se utiliza un sistema de coordenadas rectangulares con ángulosen lugar de las típicas x e y. Para situar una dirección se utiliza un sistema demeridianos y paralelos similar al que se usa con la Tierra. El paralelo 0º se hacecoincidir con el plano horizontal que contiene la dirección del haz de luz y el meridiano0º con el plano perpendicular a este. Cualquier dirección, queda pues, definida por susdos coordenadas angulares. Conocidas estas, se sitúan los puntos sobre el gráfico yse unen aquellos con igual valor de intensidad luminosa formando las líneasisocandelas.En las luminarias para alumbrado público, para definir una dirección, se utilizan losángulos C y usados en los diagramas polares. Se supone la luminaria situada dentrode una esfera y sobre ella se dibujan las líneas isocandelas. Los puntos de las curvasse obtienen por intersección de los vectores de intensidad luminosa con la superficiede esta. Para la representación plana de la superficie se recurre a la proyecciónazimutal de Lambert. 3
  • 44. En estos gráficos, los meridianos representan el ángulo C, los paralelos y lasintensidades, líneas rojas, se reflejan en tanto por ciento de la intensidad máxima.Como en este tipo de proyecciones las superficies son proporcionales a las originales,el flujo luminoso se calcula como el producto del área en el diagrama (enestereorradianes) por la intensidad luminosa en este área.Además de intensidades y flujos, este diagrama informa sobre el alcance y ladispersión de la luminaria. El alcance da una idea de la distancia longitudinal máximaque alcanza el haz de luz en la calzada mientras que la dispersión se refiere a ladistancia transversal.Curvas isoluxLas curvas vistas en los apartados anteriores (diagramas polares e isocandelas) seobtienen a partir de características de la fuente luminosa, flujo o intensidad luminosa, ydan información sobre la forma y magnitud de la emisión luminosa de esta. Por contra,las curvas isolux hacen referencia a las iluminancias, flujo luminoso recibido por unasuperficie, datos que se obtienen experimentalmente o por calculo a partir de la matrizde intensidades usando la fórmula:Estos gráficos son muy útiles porque dan información sobre la cantidad de luz recibidaen cada punto de la superficie de trabajo y son utilizadas especialmente en el alumbrado público donde de un vistazo nos podemos hacer una idea de como iluminan las farolas la calle. Lo más habitual es expresar las curvas isolux en valores absolutos definidas para una lámpara de 1000 lm y una altura de montaje de 1 m.Los valores reales se obtienen a partir de las curvas usando la expresión:También puede expresarse en valores relativos a la iluminancia máxima (100%)para cada altura de montaje. Los valores reales de la iluminancia se calculanentonces como:Ereal = Ecurva · E máx consiendo a un parámetro suministrado con las gráficas. 4
  • 45. Problemas resueltos1. Una superficie está iluminada por una fuente luminosa puntual de 80 cd deintensidad constante en todas direcciones situada a 2 m de altura. Calcular lailuminancia horizontal y vertical para los siguientes valores del ángulo alfa: 0,30º, 45º, 60º, 75º y 80º.SoluciónComo vimos al hablar de magnitudes fotométricas, las componentes de la iluminancia,se pueden calcular empleando las fórmulas:Y dado que conocemos todos los datos (h = 2 m, I = 80 cd y los diferentes valores dealfa) solo queda sustituir y calcular:Como podemos ver, la mecánica de cálculo es siempre la misma. Así pues, losresultados finales son: R (m) EH (lux) EV (lux) E (lux) 0º 0 20 0 20 30º 1.15 12.99 7.5 15 45º 2 7.07 7.07 10 60º 3.46 2.5 4.33 5 75º 7.45 0.35 1.29 1.34 80º 11 0.10 0.59 0.60 5
  • 46. Si representamos el diagrama isolux de la superficie podemos observar que las curvasson circunferencias, debido a que la intensidad es constante en todas direcciones, quela iluminancia disminuye a medida que los puntos se alejan del foco y que la máximailuminancia se encuentra en la proyección de la fuente sobre la superficie (0º).2. Una superficie circular de 3 m de radio está iluminada por una bombilla de 50cd de intensidad constante en todas direcciones situada a 2 m de altura sobre elcentro de la plataforma. Calcular la iluminación máxima y mínima sobre lasuperficie.SoluciónEn este caso nos piden la iluminancia sobre la superficie, es decir, la iluminanciahorizontal. Como la intensidad es constante en todas direcciones y la altura también elvalor de la iluminancia dependerá únicamente de la distancia de los puntos al foco. Ennuestro caso el punto más próximo es la proyección de la bombilla sobre la superficie( = 0º) y los más alejados son aquellos que están en los bordes (R = 3 m).Iluminancia máxima:Iluminancia mínima (R = 3 m):3. Tenemos un proyector situado en el techo de 0.04 m2 de superficie queilumina con una intensidad de 100 cd en cualquier dirección una mesa de 0.5 m2de superficie. La mesa se puede considerar una superficie especular de factorde reflexión de 0.8. Calcular la luminancia de la fuente y la luminancia de la mesapara el observador de la figura. 6
  • 47. SoluciónLuminancia de la fuente:Luminancia de la mesa:Como la mesa no es una superficie reflectante perfecta una parte de la intensidadluminosa que le llega es absorvida por esta. Esto quiere decir que en la fórmula de laluminancia el valor de I estará afectado por el factor de reflexión.4. Tenemos una luminaria simétrica situada en el centro de una habitación de 5 x2 m a 3 m de altura del suelo. Calcular la iluminancia sobre los puntos marcadosen el dibujo a partir del diagrama polar de la luminaria. El flujo luminoso de lalámpara es de 500 lm.SoluciónEn este caso la intensidad no es uniforme ni constante en cualquier dirección y por ellotenemos que trabajar con gráficos. Esto no supone ninguna complicación adicionalrespecto a lo visto anteriormente y la mecánica y las fórmulas empleadas siguensiendo las mismas. La única diferencia estriba en que los valores de la intensidad lostomaremos de un gráfico polar, que en este caso depende sólo del ángulo alfa debidoa que la luminaria es simétrica.Los pasos a seguir son: • Calcular 7
  • 48. • Leer I( ) relativo del gráfico • Calcular la iluminanciaIluminancia en a:Iluminancia en b:Iluminancia en c: 8
  • 49. Iluminancia en d:5. Un tramo de calle está iluminado por una farola de 10 m de altura y 10000 lmde flujo luminoso cuyo diagrama isolux se adjunta.Calcular la iluminancia en los siguientes puntos de la calzada: 9
  • 50. SoluciónResolver este problema es muy sencillo, pues sólo hay que trasladar los puntos de lacalle al diagrama isolux dividiendo sus coordenadas por la altura de la luminaria, leerlos valores del gráfico y calcular la iluminancia con la fórmula.Iluminancia en c:Las coordenadas absolutas de c son: x = 15 m e y =12.5 mAhora las dividimos por la altura (10 m) para convertirlas en valores relativos quesituaremos sobre el gráfico: xr = 1.5 ; yr = 1.25A continuación leemos los valores relativos de la iluminancia del diagrama: Coordenadas Er (lx/1000 relativas lm) (1.5,1.25) 5 lxFinalmente aplicamos la fómula y ya está. 10
  • 51. Como se puede ver el proceso a seguir es siempre igual y los resultados finales son: Coordenadas Coordenadas Punto Er (lx/1000 lm) E (lx) absolutas relativas a (20,0) (2,0) 100 10 b (0,5) (0,0.5) 25 2.5 c (15,12.5) (1.5,1.25) 5 0.5 d (0,10) (0,1) 25 2.5 e (25,5) (2.5,0.5) 1 0.1 f (30,15) (3,1.5) 1 0.1Problemas propuestos1. Tenemos una fuente luminosa puntual de 100 cd de intensidad constante entodas direcciones situada sobre una plataforma rectangular de 20x10 m como lade la figura. Calcular la iluminación máxima y mínima sobre la superficie y lailuminancia en los puntos (3, 10), (0, 15), (7, 20) y (10, 15).Ver resultados Coordenadas (15,4) (10,0) (3,10) (0,15) (7,20) (10,15) E (lux) 11.10 0.0676 1.45 2.40 1.06 0.99Ver solución Coordenadas d (m) E (lux) (15,4) 0 0º 11.10 (10,0) 16.16 79.48º 0.0676 (3,10) 5.1 59.53º 1.45 (0,15) 4 53.13º 2.40 (7,20) 5.83 62.77º 1.06 (10,15) 6 63.43º 0.992. Para la disposición de luminarias de la figura, calcular la iluminancia en elcentro de la placa (a) y en el punto b. 11
  • 52. Ver resultados Punto E (lux) a 2.84 b 1.19Ver solución con Como a está situada en el centro de simetrías de la placa d1, d2 y d3 son iguales. Conocidos d y h, sabemos el ángulo alfa. Punto a 1 2 3 Ea d 5.59 5.59 5.59 48.19º 61.78º 40.31º E (lux) 1.19 1.17 0.48 Ea = 2.84 Punto b 1 2 3 Eb d 10 11.18 5 63.43º 74.98º 68.20º E (lux) 0.36 0.19 0.64 Eb = 1.193. Para el tramo de calle de la figura, calcular la iluminancia en los puntos a, b, c,d, e y f. La farola mide 8 m de altura y la lámpara tiene un flujo de 15000 lm.Asimismo, se suministran los diagramas polares de las luminarias referenciadasa 1000 lm. 12
  • 53. Ambos Diagramas polares disponibles:Ver resultados Punto a b c d e f E(lux) 21.09 19.06 15.08 15.72 6.15 11.17Ver solución Punto d (m) tan C Ir (cd/1000 lm) I (lm) E (lx) a 0 0 0º 0º 90 1350 21.09 b 8 1 45º 90º 230 3450 19.06 c 4 0.5 26.6º 270º 90 1350 15.08 d 5 0.625 32º 180º 110 1650 15.72 e 14 1.75 60.3º 0º 210 3150 6.15 f 10 1.25 51.3º 45º 195 2925 11.174. Para el tramo de calle de la figura calcular las iluminancias de los puntos a, b,c y d a partir de la matriz de intensidades luminosas de la luminaria. 90º 120º 150º 180º 210º 240º 270º 0º 140 140 140 140 140 140 140 10º 120 130 130 135 160 200 230 20º 110 120 120 125 210 290 310 30º 100 110 115 160 300 320 330 40º 90 100 110 180 400 330 260 50º 70 80 100 200 450 190 110 60º 60 70 120 280 470 90 60 70º 30 20 60 230 300 60 20 Otros datos: 80º 5 8 10 15 35 40 15 90º 0 0 0 0 0 0 0 h = 10 m cd / 1000 lm = 20000 lm 13
  • 54. Ver resultados Punto a b c d E(lux) 28 13.44 13 4.78Ver solución 14
  • 55. Problemas resueltos1. Una superficie está iluminada por una fuente luminosa puntual de 80 cd deintensidad constante en todas direcciones situada a 2 m de altura. Calcular lailuminancia horizontal y vertical para los siguientes valores del ángulo alfa: 0,30º, 45º, 60º, 75º y 80º.SoluciónComo vimos al hablar de magnitudes fotométricas, las componentes de la iluminancia,se pueden calcular empleando las fórmulas:Y dado que conocemos todos los datos (h = 2 m, I = 80 cd y los diferentes valores dealfa) solo queda sustituir y calcular:Como podemos ver, la mecánica de cálculo es siempre la misma. Así pues, losresultados finales son: R (m) EH (lux) EV (lux) E (lux) 0º 0 20 0 20 30º 1.15 12.99 7.5 15 45º 2 7.07 7.07 10 60º 3.46 2.5 4.33 5 75º 7.45 0.35 1.29 1.34 80º 11 0.10 0.59 0.60 1
  • 56. Si representamos el diagrama isolux de la superficie podemos observar que las curvasson circunferencias, debido a que la intensidad es constante en todas direcciones, quela iluminancia disminuye a medida que los puntos se alejan del foco y que la máximailuminancia se encuentra en la proyección de la fuente sobre la superficie (0º).2. Una superficie circular de 3 m de radio está iluminada por una bombillade 50 cd de intensidad constante en todas direcciones situada a 2 m dealtura sobre el centro de la plataforma. Calcular la iluminación máxima ymínima sobre la superficie.SoluciónEn este caso nos piden la iluminancia sobre la superficie, es decir, la iluminanciahorizontal. Como la intensidad es constante en todas direcciones y la altura también elvalor de la iluminancia dependerá únicamente de la distancia de los puntos al foco. Ennuestro caso el punto más próximo es la proyección de la bombilla sobre la superficie( = 0º) y los más alejados son aquellos que están en los bordes (R = 3 m).Iluminancia máxima:Iluminancia mínima (R = 3 m):3. Tenemos un proyector situado en el techo de 0.04 m2 de superficie queilumina con una intensidad de 100 cd en cualquier dirección una mesa de 0.5 m2de superficie. La mesa se puede considerar una superficie especular de factorde reflexión de 0.8. Calcular la luminancia de la fuente y la luminancia de la mesapara el observador de la figura. 2
  • 57. SoluciónLuminancia de la fuente:Luminancia de la mesa:Como la mesa no es una superficie reflectante perfecta una parte de la intensidadluminosa que le llega es absorvida por esta. Esto quiere decir que en la fórmula de laluminancia el valor de I estará afectado por el factor de reflexión.4. Tenemos una luminaria simétrica situada en el centro de una habitación de 5 x2 m a 3 m de altura del suelo. Calcular la iluminancia sobre los puntos marcadosen el dibujo a partir del diagrama polar de la luminaria. El flujo luminoso de lalámpara es de 500 lm.SoluciónEn este caso la intensidad no es uniforme ni constante en cualquier dirección y por ellotenemos que trabajar con gráficos. Esto no supone ninguna complicación adicionalrespecto a lo visto anteriormente y la mecánica y las fórmulas empleadas siguensiendo las mismas. La única diferencia estriba en que los valores de la intensidad lostomaremos de un gráfico polar, que en este caso depende sólo del ángulo alfa debidoa que la luminaria es simétrica.Los pasos a seguir son: • Calcular 3
  • 58. • Leer I( ) relativo del gráfico • Calcular la iluminanciaIluminancia en a:Iluminancia en b:Iluminancia en c: 4
  • 59. Iluminancia en d:5. Un tramo de calle está iluminado por una farola de 10 m de altura y 10000 lmde flujo luminoso cuyo diagrama isolux se adjunta.Calcular la iluminancia en los siguientes puntos de la calzada: 5
  • 60. SoluciónResolver este problema es muy sencillo, pues sólo hay que trasladar los puntos de lacalle al diagrama isolux dividiendo sus coordenadas por la altura de la luminaria, leerlos valores del gráfico y calcular la iluminancia con la fórmula.Iluminancia en c:Las coordenadas absolutas de c son: x = 15 m e y =12.5 mAhora las dividimos por la altura (10 m) para convertirlas en valores relativos quesituaremos sobre el gráfico: xr = 1.5 ; yr = 1.25A continuación leemos los valores relativos de la iluminancia del diagrama: Coordenadas Er (lx/1000 relativas lm) (1.5,1.25) 5 lxFinalmente aplicamos la fómula y ya está.Como se puede ver el proceso a seguir es siempre igual y los resultados finales son: Coordenadas Coordenadas Punto Er (lx/1000 lm) E (lx) absolutas relativas a (20,0) (2,0) 100 10 b (0,5) (0,0.5) 25 2.5 c (15,12.5) (1.5,1.25) 5 0.5 d (0,10) (0,1) 25 2.5 e (25,5) (2.5,0.5) 1 0.1 f (30,15) (3,1.5) 1 0.1 6
  • 61. Problemas propuestos1. Tenemos una fuente luminosa puntual de 100 cd de intensidad constante entodas direcciones situada sobre una plataforma rectangular de 20x10 m como lade la figura. Calcular la iluminación máxima y mínima sobre la superficie y lailuminancia en los puntos (3, 10), (0, 15), (7, 20) y (10, 15).Ver resultados Coordenadas (15,4) (10,0) (3,10) (0,15) (7,20) (10,15) E (lux) 11.10 0.0676 1.45 2.40 1.06 0.99SoluciónComo la intensidad es constante en todas direcciones y la altura también el valor de lailuminancia depende sólo de la distancia de los puntos al foco. El punto más próximoes la proyección de la fuente sobre la superficie (15,4) y el más alejado es (10,0).Conocidas la altura del foco y la distancia horizontal de este a los distintos puntossaber el valor de alfa es un problema de trigonometría. Entonces sólo queda aplicar lafórmula y resolver el problema.Iluminancia en (15,4) (máxima):Iluminancia en (10,0) (mínima):Iluminancia en (3,10): 7
  • 62. Iluminancia en (0,15):Como podemos ver, la mecánica de cálculo es siempre la misma. Así pues, losresultados finales son: Coordenadas d (m) E (lux) (15,4) 0 0º 11.10 (10,0) 16.16 79.48º 0.0676 (3,10) 5.1 59.53º 1.45 (0,15) 4 53.13º 2.40 (7,20) 5.83 62.77º 1.06 (10,15) 6 63.43º 0.992. Para la disposición de luminarias de la figura, calcular la iluminancia en elcentro de la placa (a) y en el punto b.Ver resultados Punto E (lux) a 2.84 b 1.19SoluciónEn este caso la diferencia radica en que hay más de una fuente de luz, pero esto noha de suponer una mayor dificultad. Como las iluminancias sobre un punto sonaditivas, lo que hay qye hacer es calcular la contribución de cada foco sobre dichopunto y sumarlas. conVer másIluminancia en a: 8
  • 63. Como a está situada en el centro de simetrías de la placa d1, d2 y d3 son iguales. Conocidos d y h, sabemos el ángulo alfa.Por fin, ya sólo queda calcular las iluminancias producidas por cada foco sobre elpunto a:Finalmente sumamos E1, E2 y E3 y ya está:Para el punto b el proceso a seguir es el mismo de antes. Así pues, los resultadosfinales son: Punto a 1 2 3 Ea d 5.59 5.59 5.59 48.19º 61.78º 40.31º E (lux) 1.19 1.17 0.48 Ea = 2.84 Punto b 1 2 3 Eb d 10 11.18 5 63.43º 74.98º 68.20º E (lux) 0.36 0.19 0.64 Eb = 1.193. Para el tramo de calle de la figura, calcular la iluminancia en los puntos a, b,c, d, e y f. La farola mide 8 m de altura y la lámpara tiene un flujo de 15000 lm.Asimismo, se suministran los diagramas polares de las luminarias referenciadasa 1000 lm. 9
  • 64. Diagramas polares disponibles:Ver resultados Punto a b c d e f E(lux) 21.09 19.06 15.08 15.72 6.15 11.17SoluciónEn este caso la intensidad no es uniforme ni constante en cualquier dirección y por ellotenemos que trabajar con gráficos. Esto no supone ninguna complicación adicionalrespecto a lo visto anteriormente y la mecánica y las fórmulas empleadas siguensiendo las mismas. La única diferencia estriba en que los valores de la intensidad, queahora depende de los ángulos alfa y C, los tomaremos de un gráfico polar.Los pasos a seguir son: • Calcular • Leer I( ) relativo del gráfico según el valor de C (si no disponemos del gráfico hay que interpolar) y calcular I real 10
  • 65. • Calcular la iluminanciaVer másIluminancia en a:Iluminancia en b:Iluminancia en f:A este punto le correspondería una curva de C = 135º, pero como no disponemos deesta hemos de interpolar la intensidad luminosa a partir de los valores de las curvas deC = 90º y C = 180º para un valor de alfa de 51.3º. 11
  • 66. Como se puede ver, la mecánica de cálculo es siempre la misma y los resultadosfinales son:Datos: h = 8 m; = 15000 lm Punto d (m) tan C Ir (cd/1000 lm) I (lm) E (lx) a 0 0 0º 0º 90 1350 21.09 b 8 1 45º 90º 230 3450 19.06 c 4 0.5 26.6º 270º 90 1350 15.08 d 5 0.625 32º 180º 110 1650 15.72 e 14 1.75 60.3º 0º 210 3150 6.15 f 10 1.25 51.3º 45º 195 2925 11.174. Para el tramo de calle de la figura calcular las iluminancias de los puntos a, b,c y d a partir de la matriz de intensidades luminosas de la luminaria. 90º 120º 150º 180º 210º 240º 270º 0º 140 140 140 140 140 140 140 10º 120 130 130 135 160 200 230 20º 110 120 120 125 210 290 310 30º 100 110 115 160 300 320 330 40º 90 100 110 180 400 330 260 50º 70 80 100 200 450 190 110 60º 60 70 120 280 470 90 60 70º 30 20 60 230 300 60 20 Otros datos: 80º 5 8 10 15 35 40 15 90º 0 0 0 0 0 0 0 h = 10 m cd / 1000 lm = 20000 lmVer resultados Punto a b c d E(lux) 28 13.44 13 4.78 12
  • 67. SoluciónEl problema es idéntico al anterior con la salvedad de que ahora nos dan una tabla enlugar de un gráfico.Iluminancia en a:Iluminancia en b:Como no disponemos de valores de gamma para 45º tendremos que interpolar a partirde los valores de gamma de 40º y 50º para C = 180º (como la luminaria es simétricalos valores para C =180º y 0º son iguales).Iluminancia en c: 13
  • 68. Iluminancia en d:Como no disponemos de valores de C para 135º tendremos que interpolar a partir delos valores de C igual a 120º y 150º para un valor de gamma de 50º. 14
  • 69. FÍSICA INTERACTIVA PARA INGENIEROS 1DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN OPTICA GEOMÉTRICA SUPERFICIES REFLECTORAS :ESPEJOS1. ESPEJOS ESFERICOS Y PLANOSUn espejo esférico es un sistema óptico constituido por una porción de superficie esféricarecubierta por un material reflectante; el espejo puede ser cóncavo o convexo dependiendo decual sea la superficie que refleja la luz. a) b) θi C θr VV V C θi θr Figura 1 . a) Espejo esférico cóncavo. b) Espejo esférico convexo.Naturalmente los espejos esféricos forman imágenes, por reflexión, de fuentes luminosas; estasimágenes pueden determinarse teniendo en cuenta que cada rayo que incide sobre el espejo serefleja de acuerdo con la ley ordinaria de la reflexión, es decir de manera que los ángulos deincidencia y de reflexión sean iguales; sin embargo los espejos esféricos tienen algunaspropiedades que nos permiten localizar las imágenes a través de una simple relación matemáticaque obtendremos a través de algunas hipótesis y aproximaciones. 1
  • 70. FÍSICA INTERACTIVA PARA INGENIEROS 2DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍNDefinamos eje óptico del espejo a la recta que pasa por el centro de curvatura de la superficieesférica a la cual pertenece el espejo y por el centro geométrico o vértice del casquete esféricoque conforma el espejo.2. Propiedades focales.Si consideramos un conjunto de rayos incidentes paralelos al eje óptico del espejo,experimentalmente puede observarse que esos rayos cuando se reflejan se cruzan todos,aproximadamente, en un punto( 1 ) llamado foco del espejo.La aproximación es bastante buena si consideramos rayos incidentes paraxiales o sea rayosdivergentes de la fuente luminosa contenidos en un cono de pequeña abertura angular alrededordel eje óptico o rayos paralelos cercanos al eje óptico del espejo. Puede demostrarse fácilmente(Figura 2) que el foco está aproximadamente situado en el punto medio entre el centro decurvatura y el vértice del espejo. T P θi θr C θi F V Figura 2. Con la aproximación de rayos paraxiales la distancia focal f = FV es igual a la mitad del radio de curvatura R = CV .( 1 ) Esta observación sería estrictamente cierta para un espejo parabólico debido a las propiedades geométricas de la parábola; para un espejo esférico los rayos se cruzan en una zona pequeña llamada cáustica que se vuelve con buena aproximación puntual para rayos paraxiales. 2
  • 71. FÍSICA INTERACTIVA PARA INGENIEROS 3DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN $ $Con relación a la Figura 2 es fácil ver que TPC = PCF porque son ángulos alternos internos $ $para las paralelas TP y CV , por otro lado TPC = CPF por ley de reflexión, lo cual implica $ $ $que el triángulo CPF es isósceles porque FCP = CPF , por lo tanto CF = FP .Para rayos paraxiales FP ≅ FV y entonces CF ≅ FV = R ; por consiguiente la distancia 2focal FV = f = R . 2Para los espejos convexos los rayos que inciden paralelos al eje óptico son divergentes una vezhayan sido reflejados por el espejo, pero sus prolongaciones también se cruzan aproximadamenteen un punto focal; en este caso se dice que el foco es virtual dado que en ese punto localizadodetrás del espejo no hay una efectiva concentración de energía ( 1 ) , sino que los rayos reflejadospor el espejo son percibidos como divergentes del punto focal. (Figura 3). C F V a) C V F b) Nota Las líneas naranja son las prolongaciones de los rayos Figura 3. a) Foco real de un espejo esférico cóncavo. b) Foco virtual de un espejo esférico convexo.( 1 ) El foco de un espejo cóncavo es real en el sentido que en ese punto hay una efectiva concentración de la energía luminosa. 3
  • 72. FÍSICA INTERACTIVA PARA INGENIEROS 4DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍNCuando los rayos luminosos inciden paralelos entre sí mas no paralelos al eje óptico, también secruzan en un punto una vez reflejados por un espejo cóncavo o también aparecen divergentesdesde un punto cuando son reflejados por un espejo convexo; esos puntos están situados sobre unplano perpendicular al eje óptico que pasa por el foco real o virtual del espejo.Ese plano que es el conjunto de todos los puntos en los cuales convergen los rayos reflejadosgenerados por rayos incidentes paralelos entre sí (espejo cóncavo) o desde los cualesaparentemente divergen los rayos reflejados generados por rayos incidentes paralelos entre sí(espejo convexo) se llama plano focal y es real para espejos cóncavos y virtual para espejosconvexos (Figura 4). A) b) C V V F C F Nota Las líneas naranja son las prolongaciones de los rayos Figura 4. a) Plano focal real para un espejo cóncavo. b) Plano focal virtual para una espejo convexo.3 Fórmula de Gauss.Veamos ahora como podemos determinar la posición de la imagen formada por un espejo(cóncavo o convexo) cuando se conozca la posición del objeto fuente y las características delespejo, es decir su radio de curvatura. 4
  • 73. FÍSICA INTERACTIVA PARA INGENIEROS 5DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍNCon el fin de que la relación analítica que encontremos sea útil, es necesario que pueda aplicarsecualesquiera que sean las características del espejo e indiferentemente si la imagen es real ovirtual; para garantizar lo anterior deben establecerse unas convenciones de signo que resumimosasí: • La luz viaja de izquierda a derecha. • Son positivas las distancias que se miden de izquierda a derecha. • Son negativas las distancias que se miden de derecha a izquierda. • La distancia p del objeto al espejo se mide desde el objeto hacia el vértice. • La distancia q de la imagen al espejo se mide desde la imagen hacia el vértice del espejo; lo que implica que q es positiva para imágenes reales y negativa para imágenes virtuales. • El radio de curvatura R se mide desde el centro de curvatura hacia el vértice del espejo, de manera que es positivo o negativo según el espejo sea cóncavo o convexo. • La distancia focal f se mide desde el foco hacia el vértice del espejo, lo que implica que f es positiva o negativa según el foco sea real o virtual.Tracemos entonces la trayectoria de un haz de luz que incide sobre un espejo. θ θ O α C β γ I F V f q R p Figura 5. Imagen de una fuente puntual producida por un espejo esférico cóncavoCon relación a la Figura 5 podemos observar que, en el triángulo OPI , el segmento CP es $bisector del ángulo CPI lo que implica de acuerdo con el teorema de la bisectríz (geometríaeuclidiana): 5
  • 74. FÍSICA INTERACTIVA PARA INGENIEROS 6DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN OP : IP = OC : CI (1)En la aproximación de rayos paraxiales podemos aceptar que OP ≅ OV = p , IP = IV = q ;por otra parte es obvio que OC = OV − CV = p − R y, CI = CV − IV = R − q , así que dela (1) obtenemos: p :q = p − R : R −qde donde: pR − pq = pq − qR .Reorganizando y dividiendo por p. q . R se llega a: 1 1 2 1 + = = (2) p q R fEsta ecuación llamada fórmula de Gauss es aplicable a cualquier espejo esférico siempre que setengan en cuenta las convenciones de signo; incluso la fórmula puede aplicarse a los espejosplanos que, como se sabe, producen imágenes virtuales a la misma distancia detrás del espejo ala cual está situada la fuente delante del espejo.Para los espejos planos que pueden considerarse como espejos esféricos de radio R infinito seobtiene, a partir de la (2): 1 1 2 + = =0 p q Rde donde q = − pque coincide con el resultado esperado. 6
  • 75. FÍSICA INTERACTIVA PARA INGENIEROS 7DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN4 Construcción gráfica de imágenes.Sin recurrir a la fórmula de Gauss, es posible determinar con bastante precisión la posición de laimagen producida por un espejo utilizando construcciones gráficas de acuerdo con las siguientesreglas:- Todo rayo que incide paralelamente al eje óptico se refleja de manera que pase por el foco real o que su prolongación pase por el foco virtual.- Todo rayo incidente que pasa por el centro de curvatura C se refleja sobre si mismo.- Todo rayo incidente que pase por el foco real o cuya prolongación se dirija hacia el foco virtual se refleja paralelamente al eje óptico (consecuencia del principio de reversibilidad).Las figuras siguientes presentan algunos casos de importancia obtenidos mediante el uso de lasanteriores reglas. a) O F V C I b) I F V C O 7
  • 76. FÍSICA INTERACTIVA PARA INGENIEROS 8DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN c) V O I F C Nota: Las líneas rojas son las prolongaciones de los rayos Figura 6 . a) Imagen real formada por un espejo cóncavo. b) Caso único ( p < f ) de imagen virtual formada por un espejo cóncavo. c) Un espejo convexo siempre forma una imagen virtual.Como puede deducirse de la Figura 3.13 un espejo cóncavo forma generalmente (excepto para p < f ) imagen real e invertida; el único caso en el cual el espejo cóncavo forma una imagenvirtual y derecha ocurre cuando p < f , mientras un espejo convexo siempre produce unaimagen virtual y derecha.4 Aumento.La anterior figura también nos muestra como el tamaño de la imagen es variable de acuerdo conla posición del objeto fuente; se define entonces como aumento del espejo a la relación A = − I 0 ( 1 ) entre los tamaños de la imagen y del objeto.Con relación a la Figura 7 hay varios pares de triángulos semejantes, por ejemplo:1) Triángulo ABC y triángulo CNM para los cuales: I R−q A=− =− (3) 0 p−R2) Triángulo θ2 > θ2lim y triángulo NVM para los cuales:( 1) El signo negativo tiene en cuenta que cuando p, q son positivas (es decir para imágenes reales), la imagen resulta invertida con respecto al objeto, mientras cuando p es positiva y q es negativa (es decir para imágenes virtuales) la imagen resulta derecha. 8
  • 77. FÍSICA INTERACTIVA PARA INGENIEROS 9DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN I p A= − =− (4) 0 q B P O C N F V A I Q M Figura 7. Imagen real e invertida producida por un espejo cóncavo. 9
  • 78. 1. Delante de un espejo cóncavo de 50 cm de focal y a 25 cm de su vértice seencuentra un objeto cuya altura, perpendicular al eje, es de 1 cm. Calcular la posición yel tamaño de la imagen suponiendo que los rayos incidentes corresponden a la zonaparaxial. Repetir el problema considerando que el espejo es convexo. La solución gráfica para el primer caso cuando se tiene una lente delgada yconvergente es la siguiente: C y y F s s La solución analítica para el primer caso cuando se tiene una lente delgada yconvergente es la siguiente: s = 25 cm   1 1 1 y = 1 cm  ⇒ + = s s f f = 50 cm s y β= − = s y Despejando términos se obtiene el siguiente resultado: 1 1 1 1 1 1 1 25 − 50 1 25 1.250 + = ⇒ = − ⇒ = ⇒ =− ⇒ s = − = −50 cm s 25 50 s 50 25 s 1.250 s 1.250 25 s y − 50 y 50 − = ⇒− = ⇒ y = ·1 = 2 cm s y 25 1 25 Por tanto, para un espejo cóncavo cuya distancia focal es de 50 cm y a 25 m delvértice se sitúa un objeto cuya altura, perpendicular al eje, es de 1 cm la posición y eltamaño de la imagen imaginaria en la aproximación paraxial es de 50 cm (al ladoopuesto de donde está el objeto) y de 2 cm (imagen derecha), respectivamente.
  • 79. Delante de una lente delgada convergente situada en aire cuya distancia focalimagen es de 20 cm y a 5 m de la lente se sitúa un objeto cuya altura, perpendicular aleje, es de 2 cm. Determinar la posición y el tamaño de la imagen en la aproximaciónparaxial. Repetir el problema suponiendo que la lente es divergente y que f’ es de -20cm. La solución gráfica para el primer caso cuando se tiene una lente delgada yconvergente es la siguiente: La solución analítica para el primer caso cuando se tiene una lente delgada yconvergente es la siguiente: s = 5 m = 500 cm  1 1 1 y = 2 cm ⇒− + =  s s f f = 20 cm  s y β= = s y Despejando términos se obtiene el siguiente resultado: 1 1 1 1 1 1 1 20 − 500 1 480 125− + = ⇒ = − ⇒ = ⇒ =− ⇒ s = − ≈ −2083 cm s 500 20 s 500 20 s 10.000 s 10.000 6 125 125 − − s y y 6 = ⇒ y = 6 ·2 = − 1 ≈ −0083 cm = ⇒ s y 500 2 500 12 Por tanto, para una lente convergente cuya distancia focal imagen es de 20 cm ya 5 m de la lente se sitúa un objeto cuya altura, perpendicular al eje, es de 2 cm laposición y el tamaño de la imagen real en la aproximación paraxial es de 20’83 cm (allado opuesto de donde está el objeto) y de 0’083 cm (imagen invertida),respectivamente.
  • 80. La solución gráfica para el segundo caso cuando se tiene una lente delgada ydivergente es la siguiente: La solución analítica para el primer caso cuando se tiene una lente delgada yconvergente es la siguiente: s = 5 m = 500 cm  1 1 1 y = 2 cm ⇒ − + =  s s f f = −20 cm  s y β= = s y Despejando términos se obtiene el siguiente resultado: 1 1 1 1 1 1 1 20 + 500 1 520 250 − + =− ⇒ = + ⇒ = ⇒ = ⇒ s = ≈ 1923 cm s 500 20 s 500 20 s 10.000 s 10.000 13 250 250 s y y 1 = ⇒ 13 = ⇒ y = 13 ·2 = ≈ 0077 cm s y 500 2 500 13 Por tanto, para una lente divergente cuya distancia focal imagen es de - 20 cm ya 5 m de la lente se sitúa un objeto cuya altura, perpendicular al eje, es de 2 cm laposición y el tamaño de la imagen virtual (se creo con las prolongaciones de los rayos)en la aproximación paraxial es de 19’23 cm (al mismo lado donde está el objeto) y de0’077 cm (imagen derecha), respectivamente.
  • 81. Plano focal Línea auxiliar
  • 82. Ejercicio 8. Tenemos dos lentes delgadas convergentes de la misma focal f1 = f 2 = 20 cm .Las lentes distan 50 cm entre sí. Un punto luminoso está a la izquierda de la primeralente a 30 cm. a) Determinar la posición de la imagen. b) Acercamos el objeto a 10 cm a la lente. Determinar la nueva posición. c) Calcula las matrices de transferencia en ambos casos. a) Determinar la posición de la imagen. (Figura 1) Cálculos y análisis del caso de la primera imagen formada: Para el caso de una lente ya sea convergente o divergente emplearemos lasecuaciones correspondientes tales como: 1 1 1 s y − + = β= = s s f s y donde s hace referencia a la distancia que existe entre el objeto y la lente (que ennuestro caso es de s = – 30 cm puesto que se encuentra a una distancia de 30 cm de laprimera lente y está en su izquierda). La distancia focal de dicha lente es de + 20 cm (elvalor positivo lo añadimos ya que se trata de una lente convergente). Por último, laaltura la supondremos positiva ya que el enunciado no nos dice a que altura está.Sustituyendo estos datos en las ecuaciones antes mostradas, obtenemos los siguientesresultados:− 1 1 + = 1 ⇒ 1 = 1 1 + ⇒ 1 s1 + f1 = s ·f ⇒ s 1 = 1 1 ⇒ s1 = (− 30)(20) = +60 cm · s1 s1 f1 s1 f1 s1 s1 s1 · f1 s1 + f1 − 30 + 20 s 1 y 1 + 60 cm y 1 β1 = = ⇒ = ⇒ y 1 = −2 y1 s1 y1 − 30 cm y1 Cálculos y análisis del caso de la segunda imagen formada: Hemos obtenido que la imagen de dicho punto luminoso está situada a 60 cm ala derecha de la primera lente (a la derecha de la lente puesto que el signo positivo noslo indica) y con una altura el doble de mayor que la inicial pero invertida. Observandola figura podremos observar que si sale a 60 cm a la derecha de la lente, su localizaciónrespecto a la segunda lente es a 10 cm a la derecha de ésta última. Por tanto, sirepetimos de nuevo el mismo proceso tenemos que: y2 = y 1 = −2 y1 ; f 2 = +20 cm s2 = s1 −d = +60 cm − 50 cm = +10 cm; Sustituyendo estos datos en las ecuaciones antesmostradas, obtenemos los siguientes resultados: 1
  • 83. − 1 1 + = 1 ⇒ 1 = 1 1 + ⇒ 1 s + f 2 = 2 s ·f ⇒ s 2 = 2 2 ⇒ s2 = (+ 10)(20) = + 20 cm · s2 s2 f 2 s2 f 2 s2 s 2 s2 · f 2 s2 + f 2 + 10 + 20 3 20 + cm s 2 y 2 y 2 2 4 β1 = = ⇒ 3 = ⇒ y 2 = −2· y1 cm = − y1 cm s2 y2 + 10 cm − 2 y1 3 3 En definitiva tenemos una imagen invertida creada cuya altura es de 1.33 vecesla del objeto y cuya posición es de: - 86.667 cm a la derecha del objeto. - 56.667 cm a la derecha de la primera lente. - 6.667 cm a la derecha de la segunda lente. Figuras 2
  • 84. Acercamos el objeto a 10 cm a la lente. Determinar la nueva posición. (Figura 2) Para el caso de una lente ya sea convergente o divergente emplearemos lasecuaciones correspondientes tales como: 1 1 1 s y − + = β= = s s f s y donde s hace referencia a la distancia que existe entre el objeto y la lente (que ennuestro caso es de s = – 20 cm puesto que se encuentra a una distancia de 20 cm de laprimera lente y está en su izquierda). La distancia focal de dicha lente es de + 20 cm (elvalor positivo lo añadimos ya que se trata de una lente convergente). Por último, laaltura la supondremos positiva ya que el enunciado no nos dice a que altura está. Sustituyendo estos datos en las ecuaciones antes mostradas, obtenemos lossiguientes resultados:− 1 + 1 = 1 ⇒ 1 = 1 1 + ⇒ 1 s + f1 = 1 s ·f ⇒ s 1 = 1 1 ⇒ s1 = (− 20)(20) = +∞ cm · s1 s1 f 1 s1 f 1 s1 s1 s1 · f 1 s1 + f 1 − 20 + 20 s 1 y 1 + ∞ cm y 1 β1 = = ⇒ = ⇒ y 1 = −∞· y1 s1 y1 − 20 cm y1 Cálculos y análisis del caso de la segunda imagen formada: Hemos obtenido que la imagen de dicho punto luminoso está situada a muchadistancia a la derecha de la primera lente (a la derecha de la lente puesto que el signopositivo nos lo indica) y con una altura mucho mayor que la inicial pero invertida.Observando la figura podremos observar que si sale a + ∞ cm a la derecha de la lente, sulocalización respecto a la segunda lente es a + ∞ cm a la derecha de ésta última. Portanto, si repetimos de nuevo el mismo proceso tenemos que: s 2 = s1 −d = +∞ cm − 50 cm = +∞ cm; y 2 = y 1 = −∞· y1 cm; f 2 = +20 cm Sustituyendo estos datos en las ecuaciones antes mostradas, obtenemos lossiguientes resultados: 1 1 1 1 1 1  1 1 1 1 1 − + = ⇒ = + ⇒ lim  + = ⇒ = ⇒ s 2 = +20 cm s2 s2 f 2 s2 f 2 s2 s 2 → +∞  f 2 s2  f 2 s2 f 2 s 2 y 2 + 20 cm y 2 1 y 2 β1 = = ⇒ = ⇒ = ⇒ y 2 = − y1 cm s2 y2 + ∞ cm − ∞· y1 cm + ∞ cm − ∞· y1 cm En definitiva tenemos una imagen invertida creada cuya altura es de 20 cmindependientemente de la del objeto y cuya posición es de: - 100 cm a la derecha del objeto. - 50 cm a la derecha de la primera lente. - 20 cm a la derecha de la segunda lente. 3
  • 85. b) Calcula las matrices de transferencia en ambos casos.     1 0  1 − 50 1 0 M1 =   ; M2 =  ; M3 =  ;  1 1  0 1    1 1  20   20   1 − s  1 − s  Ms =  ; M s =  ; 0 1  0 1  De clase de teoría nosotros conocemos que: M T = M 3 ·M 2 ·M 1 h  h  α  = [M S ·(M 3 ·M 2 ·M 1 )·M S ]·α      Tenemos que la matriz de transferencia es la siguiente:     1 0  1 − 50  1 0 M T = M 3 ·M 2 ·M 1 =   · · =  1 1  0 1  1 1  20   20      3   1 − 50  1 0  − − 50  = 2 1 3 1 · = 1 3 ;  −  1  − −   20 2   20   40 2 La matriz solución del sistema es:  3   3 s 3   1 − s  − 2 − 50   1 − s   − 2 + 40 − 50 + s 2 · 1 − s = M s ·M T ·M s =  · = = 3  3  0M SOL ·  0 1  − 1  −  0 1  − 1 −  1  40 2  40 2   3 s  3 s  3   − +  − ·s − 50 + s = 2 40  2 40  2  ;  1 s 3  − −   40 40 2  Caso cuando s = 30 cm:  3 s  3 s  3   − ·s − 50 + s   − + − + 3 s 3    2 40 −5+ s M SOL = 2 40  2 40  2  = 4 ;  1 s 3   − 1 3  − − −    40 40 2    40 4  4
  • 86. Como ha de verificarse que para cualquier ángulo debe cumplirse la igualdadmatricial:  3 s 3  h   h  h  − 2 + 40 −5+ s 4 ·h  ⇒ −5 + 3 s = 0 ⇒ s = + 20 cm   =· ∀α ⇒ α  =  3  α  α  α     − 1 −   4 3  40 4   20   3 s   3 3  4 h =  − + ·h ⇒ h = − + ·h = − h  2 40   2 40  3    Caso cuando s = 20 cm:  3 s  3 s  3   − ·s − 50 + s  − +  − + 3 s   2 40 − 20 + s  M SOL = 2 40  2 40  2  = ;  − 1 s 3 −   − 1 −1    40 40 2    40  Como ha de verificarse que para cualquier ángulo debe cumplirse la igualdadmatricial:  3 s  h   h  h  − 2 + 40 − 20 + s  h    =· ∀α ⇒ α  =  ·  ⇒ −20 + s = 0 ⇒ s = +20 cm α  α     − 1 − 1  α   40   3 s   3 20  h =  − + ·h ⇒ h = − + ·h = −h  2 40   2 40  5
  • 87. BLOQUE I: INTRODUCCIÓN A LA ÓPTICA.TEMA II: Sistema de visión humano.2.1. Anatomía del ojo humano 1 2.1.1. Introducción 1 2.1.2. El ojo humano 1 2.1.3. El ojo como instrumento óptico 2 2.1.4. Anatomía de la retina: Conos y Bastones 3 2.1.5. Experimento: Sensibilidad espectral del ojo 4 2.1.6. Agudeza visual 5 2.1.7. La adaptación 72.2. Acomodación 82.3. Ametropías 92.4. Aberraciones en el ojo 102.5. Visión binocular 112.6. Visión de objetos en movimiento 132.7. Ilusiones ópticas 142.8. Bibliografía 17
  • 88. Tema 2 – Sistema de visión humano BLOQUE I: Introducción a la Óptica2.1. Anatomía del ojo humano.2.1.1. Introducción. El conocimiento funcional del ojo es indispensable a un físico si se tiene encuenta que más del 80 % de la información, que el hombre recibe del mundo exterior através de los sentidos, la obtiene a través del sentido de la vista. Además, son nocionesnecesarias para un ingeniero, y esta lección tiene como fin adentrarnos en elconocimiento de la anatomía del ojo pues las instalaciones que diseñemos deben estarcorrectamente iluminadas para facilitar al ojo a cumplir su misión. Las cámaras fotográficas se diseñan con la intención de lograr imágenes de lamejor calidad, pero la calidad viene dada por la apreciación directa del ojo, por lo queno se han encontrado todavía características objetivas que por sí definan la mejorimagen. El conocimiento de las problemática del ojo y la visión es básico para eldesarrollo de importantes ingenierías como son la ingeniería de la iluminación, la delcolor, la del diseño de instrumentos y cálculo de sistemas, la de visión artificial y la derobótica entre otras.2.1.2. El ojo humano. El globo ocular está alojado dentro de la órbita ciliar en la cara y sujeto por seismúsculos externos, que le proporcionan la movilidad de que dispone en su órbita. A suvez, el globo ocular está encerrado en una membrana dura y resistente denominadaesclerótica (e) que le sirve de protección, y en su parte anterior existe una prominenciatransparente denominada córnea (c). Dentro de ella está otra membrana, la coroides (co) fuertemente vascularizada.Su gran irrigación sanguínea proporciona alimento y calor a las demás partes del ojo.Esta membrana no está completamente cerrada y en su parte anterior tiene unaexpansión muscular, denominada músculo ciliar (m), con un orificio, el iris (i), queactúa como diafragma para la luz. El diámetro del iris es variable y su variación seproduce por un acto involuntario que depende del flujo luminoso que penetra en el ojo.En altas luminosidades se cierra hasta un diámetro de 2 mm mientras que en visiónnocturna se abre hasta 8 mm. Dentro de la coroides y adosada a esta sin soldaduras, existe otra membranadenominada retina (r), que se trata de un entramado nervioso formado por las célulasterminales de las fibras del nervio óptico, y que tiene en su parte posterior una pequeñadepresión denominada fóvea (f) aproximadamente de 1.5 mm de diámetro. La cavidadinterior del ojo está dividida en dos partes por un tabique muy tenue, hialoide (h). Lacámara anterior está llena de un líquido transparente, el humor acuoso (ha), que es unadispersión de albúmina en agua salada caracterizada por ser fácilmente regenerable. Enesta cámara, detrás del iris, está alojado el cristalino (cr) que se trata de una lentebiconvexa, sujeta al músculo ciliar por un haz de fibras que lo envuelve a modo de sacoy que se denomina zónula (z). La cámara posterior está ocupada por el humor vítreo(hv), que es un gel proteínico muy frágil. La presión interior del ojo mantiene tenso elglobo ocular y la retina adosada a la coroides. La pérdida de esta presión por rotura delas cámaras, puede conducir al desprendimiento de la retina con graves consecuencias. 1Física de la Visión Jaime Martínez Verdú
  • 89. Tema 2 – Sistema de visión humano BLOQUE I: Introducción a la Óptica Figura 2.1. Anatomía del ojo humano. Cuando se trata de ver con nitidez algún particular detalle de un objeto, el eje seorienta por medio de los músculos externos de modo que la imagen del detalle aobservar se sitúe sobre la fóvea. La línea que determina el centro de la fóvea y el puntonodal imagen es el eje visual, que forma con el eje óptico un ángulo de unos 5º.2.1.3. El ojo como instrumento óptico. El ojo se comporta de modo semejante a una cámara fotográfica cuyo objetivoestá constituido por la córnea y el cristalino, separados por el humor acuoso, siendo laretina la placa donde se forma la imagen y el iris es su diafragma de abertura. Pero laanalogía no acaba aquí, pues al igualque en la cámara de fotos la imagenque se forma sobre la retina estáinvertida. Con todo, esto no suponeningún problema ya que el cerebro seencarga de darle la vuelta para que laveamos correctamente. Los datosmedios estadísticos del ojo son lossiguientes: Figura 2.2. Formación de la imagen en el ojo.Córnea.- Cristalino.- nD = 1.376. nD, variable: 1.41 (núcleo), 1.37 (periferia). d = 0.5 mm. d = 3.1 mm. r1 = 7.7 mm y r2 = 6.8 mm. r1 = 10 mm y r2 = -6 mm, (en reposo). Poder refractor, 45 dioptrías. Potencia en aire, 18 dioptrías.Humor Acuoso.- Humor Vítreo.- nD = 1.336. nD = 1.337. d = 3.1 mm. 2Física de la Visión Jaime Martínez Verdú
  • 90. Tema 2 – Sistema de visión humano BLOQUE I: Introducción a la Óptica2.1.4. Anatomía de la retina: Conos y Bastones. Dichos fotorreceptores se encuentran en la primera capa de neuronas de la retinay se caracterizan por ser susceptibles a la luz (se componen de sustancias foto sensiblessobre las cuales actúa la luz como estímulo, provocando reacciones fotoquímicas que setraducen en estímulos eléctricos dirigidos al cerebro). Ésta células son de dos tipos:conos y bastones. Los conos, con la forma que indica su propio nombre son cortos ygruesos; los bastones, más largos y cilíndricos. Figura 2.3. Concentraciones de fotorreceptores frente a la variación del ángulo. Los conos y bastones se distribuyen por toda la retina, pero no con igualdensidad. En la zona central de la fóvea solamente hay conos y su densidad disminuyehacia el borde de la retina (en el centro hay un máximo de 150.000 unidades por mm2).La densidad de bastones crece a partir de la fóvea pasando por un máximo de 160.000unidades por mm2 a unos 6 mm del centro. Pigmento epiteliano Bastones Conos Membrana delimitadora externa Células Müller Células horizontales Células bipolares Células anacrinas Células ganglionares Fibra de nervio óptico Membrana delimitadora interna Figura 2.4. Diagrama simple de la organización de la retina. En general, se observa que los bastones se agrupan en baterías sobre una mismabipolar, mientras que los conos van a una sola bipolar o uno mismo a varias.Particularmente, en el centro de la fóvea cada cono conecta con una célula bipolar y unaganglionar. 3Física de la Visión Jaime Martínez Verdú
  • 91. Tema 2 – Sistema de visión humano BLOQUE I: Introducción a la Óptica2.1.5. Experimento: Sensibilidad espectral del ojo. En un diedro pintado de blanco difusor D, se envía sobre una cara luzmonocromática de longitud de onda λ0 y, sobre la cara restante, luz de longitud de ondaλ variable. El orificio de la pantalla P, permite al observador ver un campo circulardividido en dos regiones cada una de las cuales está iluminada por una sola de las luces. Supongamos que de la luz λ0 mandamos λ0 λ W0 W/m2 sobre la correspondiente cara del diedro y de la luz λ mandamos Wλ W/m2 sobre la (a) (b) cara restante. Dependiendo de estas irradiancias, el observador verá ambas regiones de diferente color y, además, las verá con distinta claridad (la λ0 λ λ0 λ claridad es la impresión subjetiva del nivel de luz y ésta se puede alcanzar independientemente del color, es decir, al iluminar una habitación con luz Figura 2.5. Experimento. amarilla, esta misma claridad se puede obtenerempleando una luz roja, lo único que sucederá es que de ésta última tenemos queemplear mayor cantidad de energía). Por tanto, si enviamos 100 W/m2 de λ0 = 530 nm y λ = 480 nm (Figura 2.5 a)veremos la zona izquierda verde y la derecha azul (ésta última más oscura). Pero sienviamos 100 W/m2 de λ530 y 620 W/m2 λ480 (Figura 2.5 b), seguiremos viendo unaverde y la otra azul pero igualmente claras. A la vista del experimento, podemos afirmarque la luz azul es menos eficiente que la verde y definiremos la eficiencia luminosarelativa o factor de visibilidad, Vλ, de λ respecto λ0 por la expresión siguiente: W0 Vλ = = 0,161 (1) Wλ Fijando nuevos valores y repitiendo estas medidas más veces en todo el espectrovisible se obtiene una curva que se llama curva de sensibilidad espectral, donde sepuede apreciar que en visión diurna el máximo ocurre a la longitud de onda λ = 555 nm. A nivel industrial, este fenómeno nos revela que si una bombilla emite luz en lazona en que el ojo es más sensible, requerirá menos energía y, por tanto, un bajo coste. Figura 2.6. Curva de sensibilidad espectral 4Física de la Visión Jaime Martínez Verdú
  • 92. Tema 2 – Sistema de visión humano BLOQUE I: Introducción a la Óptica λ Vλ λ Vλ λ Vλ λ Vλ 400 0,0004 500 0,3230 600 0,6310 700 0,0041 410 0,0012 510 0,5030 610 0,5030 710 0,0021 420 0,0040 520 0,7100 620 0,3810 720 0,0010 430 0,0116 530 0,8620 630 0,2650 730 0,0005 440 0,0230 540 0,9540 640 0,1750 740 0,0003 450 0,0380 550 0,9950 650 0,1070 750 0,0001 460 0,0600 560 0,9950 660 0,0610 470 0,0910 570 0,9520 670 0,0320 480 0,1390 580 0,8700 680 0,0170 490 0,2080 590 0,7570 690 0,0082 Tabla 2.1. Valores de la curva de sensibilidad espectral. Efecto Purkinje: Si el experimento se repite para bajas luminosidades en visión escotópica, seencuentra una curva análoga, pero desplazada hacia las ondas cortas. En bajasluminosidades las ondas cortas son más eficientes que las largas (fenómeno conocidocomo efecto Purkinje). Teoría de la duplicidad: El estudio de estos fenómenos ha conducido a la conclusión de que la retinafunciona con dos modalidades: retina diurna y retina nocturna. • Retina diurna (visión fotópica): La función diurna se asigna a los conos como sedesprende de que la visión diurna de detalles sea foveal. En la visión fotópica foveal,como cada cono se conecta a una fibra nerviosa (o incluso a más de una), dos señalesque caigan sobre dos conos distintos, podemos pensar que se perciben separadas. Comoconsecuencia, hay que asignar a los conos la visión del color. • Retina nocturna (visión escotópica): La función nocturna se asigna a losbastones como se desprende de que esta visión sea extrafoveal. En la visión escotópica,se ve borroso sin que se puedan apreciar detalles, lo cual tiene su explicación en quecomo los bastones se asocian a grandes grupos sobre una fibra nerviosa, toda lainformación recibida por una de estas colonias de bastones llega al cerebro como unaúnica señal sin posibilidad de discriminación. Como consecuencia, hay que intuir quelos bastones no perciben colores: «Por la noche, todos los gatos son pardos».2.1.6. Agudeza visual. Cuando el ojo trata de percibir detalles tiene sus limitaciones debido a doscausas fundamentales, una de tipo físico por efecto de la difracción de la pupila y porlas aberraciones, y otra de tipo fisiológico originada por la estructura discontinua de laretina. Entre las tareas citadas, cabe señalar tres fundamentales: percepción de objetosde tamaño mínimo, habilidad para ver separados dos objetos muy próximos y elreconocimiento de formas. 5Física de la Visión Jaime Martínez Verdú
  • 93. Tema 2 – Sistema de visión humano BLOQUE I: Introducción a la Óptica Mínimo visible: Podemos enfocar esta cuestión ciñéndonos a objetos tales como discoscirculares. Podemos diferenciar dos casos posibles: Figura 2.7. Discos blancos / negros sobre fondos negros / blancos. • Si se trata de determinar cuál es el diámetro mínimo que puede tener un discoblanco sobre fondo negro para que sea percibida su existencia, encontramos que no haylímite. Aunque el disco sea lo más próximo a un punto teórico, a causa de la difraccióntendríamos en la retina una mancha luminosa y, por muy pequeños que sean los objetos,siempre se percibirían con un tamaño mínimo que será aquel que correspondiese a unobjeto cuya imagen geométrica en la retina fuera igual a la mancha de difracción de unpunto luminoso teórico. • Si se trata de detectar la existencia de un disco negro sobre un fondo claro, ya nosucede igual puesto que por efecto de difracción en la pupila, aparece luz en el interiorde su imagen geométrica. Dicha luz crece en su centro a medida que disminuye sudiámetro y llega un momento en que por falta de contraste deja de percibirse laexistencia del disco (el límite está en que el diámetro se vea bajo un ángulo de 25). A veces el ojo presenta una habilidad excepcional que le permite divisar lostendidos eléctricos sobre el cielo azul-claro a una distancia muy grande. Mínimo separable: Si presentamos al ojo dos puntos luminosos ampliamente separados y los vamosacercando entre sí, llega un momento en que no se puede discernir si se trata de dospuntos o de uno sólo. Cuando la experiencia se lleva a cabo con barras de igual anchuraalternativamente blancas y negras, en altas luminosidades y en las mejores condicionesse perciben separadas si su anchura subtiende como mínimo 38. (a) (b) Figura 2.8. (a) Miras de Foucault, (b) Problema de Nonius. A veces, el ojo pone de manifiesto una habilidad excepcional ante algunosproblemas como al tratar de ver si dos trazos están alineados, pudiendo percibirse hastauna falta de alineación que se ve bajo un ángulo de 3. 6Física de la Visión Jaime Martínez Verdú
  • 94. Tema 2 – Sistema de visión humano BLOQUE I: Introducción a la Óptica Mínimo cognoscible: Modernas investigaciones ponen de manifiesto que en la agudeza visualinterviene con gran influencia las micro-fluctuaciones de la acomodación. El cristalino,accionado por la zónula modifica su estructura y su forma, incluso perdiendo susimetría de revolución de modo que favorezca la fluctuación visual. En la determinación del mínimo cognoscible se suelen emplear letras y númerospara que sean reconocidos a diferentes distancias o presentando a la misma distanciadiferentes tamaños. !!!!!!!!!!Faltan fotos del test de las letras y números!!!!!!!!!!2.1.7. La adaptación. La adaptación es la facultad del ojo para ajustarse automáticamente a cambiosen los niveles de iluminación. Se debe a la capacidad del iris para regular la abertura dela pupila y a cambios fotoquímicos en la retina. Para pasar de ambientes oscuros a luminosos el proceso es muy rápido pero encaso contrario es mucho más lento. Al cabo de un minuto se tiene una adaptaciónaceptable. A medida que pasa el tiempo, vemos mejor en la oscuridad y a la media horaya vemos bastante bien. La adaptación completa se produce pasada una hora. Completa Adaptación De la oscuridad a la luz De la luz a la oscuridad Ninguna 15 30 45 60 75 Tiempo (minutos) Figura 2.9. Gráficas de adaptación del ojo a la luz. 7Física de la Visión Jaime Martínez Verdú
  • 95. Tema 2 – Sistema de visión humano BLOQUE I: Introducción a la Óptica2.2. Acomodación. El ojo humano es capaz de ver con nitidez a largas distancias (en reposo, laimagen del plano del infinito se forma en la retina) y también objetos cercanos, lo queimplica que no es un sistema rígido, sino que puede modificar su potencia de modo queobjetos a diferentes distancias formen su imagen en la retina. Este hecho se llama acomodación y su mecanismo consiste en la variación de laconvergencia del cristalino. Cuando se desea ver un objeto cercano, el músculo ciliar, através de las fibras que lo unen al cristalino, actúa sobre éste abombándolo; cuando noactúa, su propia elasticidad lo devuelve al estado de reposo. La variación de laconvergencia del cristalino se debe a los dos aspectos siguientes: • Mecanismo geométrico: Variación de la curvatura del cristalino. • Mecanismo intercapsular: Variación del índice de refracción del cristalino. El punto más cercano se denomina punto próximo y el más alejado puntoremoto. La siguiente expresión relaciona la amplitud de acomodación A con éstasdistancias: 1 1 A= − (2) distancia del punto remoto distancia del punto próximo Cuando las distancias se miden en metros, la amplitud de acomodación quedaexpresada en dioptrías. Generalmente se considera que el punto remoto se encuentra en el infinito y queel punto próximo varía su posición con la edad. Un muchacho de 10 años tiene el puntopróximo a – 0,07 m mientras que una persona durante la vejez puede ver con nitidez a– 250 mm. 1 1 1 1 A= − ⇒ A = 14.3 dp A= − ⇒ A = 4 dp ∞ − 0,07 ∞ − 0,25 8Física de la Visión Jaime Martínez Verdú
  • 96. Tema 2 – Sistema de visión humano BLOQUE I: Introducción a la Óptica2.3. Ametropías. El ojo de convergencia normal u ojo emétrope, forma sin esfuerzo deacomodación, la imagen del plano del infinito sobre su retina. El ojo que no tiene unaconvergencia normal se denomina amétrope. Podemos diferenciar entre varios tipos deproblemas en el ojo: miopía, hipermetropía, vista cansada y astigmatismo. Miopía: Un ojo excesivamente convergente se dice que es miope y sus puntos remoto ypróximo están más cerca de lo normal. Su miopía pude corregirse anteponiéndole unalente divergente con la potencia adecuada para que el punto próximo salga a su sitio,con lo cual el remoto también irá al infinito. Hipermetropía: Un ojo que tiene poca convergencia se dice que es hipermétrope y su puntopróximo está más alejado de lo normal. La imagen del infinito se forma detrás de laretina dando lugar a una imagen retiniana virtual. Su hipermetropía puede corregirseanteponiéndole una lente convergente con la potencia adecuada para que el puntopróximo salga a su sitio. Vista cansada (presbicia): Este efecto suele aparecer debido a que, con la edad, el cristalino pierdeelasticidad, y con la rigidez pierde amplitud de acomodación. Esto provoca unalejamiento del punto próximo a pesar de que el remoto se mantenga en el infinito,pudiéndose corregir con vidrios convergentes (gafas de lectura). Si la miopía no es aguda, la presbicia puede llegar a compensar la posición delpunto próximo. Esta es la razón por la cual, con la edad, algunos miopes puedenprescindir de usar gafas de lectura, pero no de gafas para ver de lejos. Astigmatismo: Esta complicación aparece debida a que la córnea y las superficies delcristalino han dejado de poseer simetría de revolución. En consecuencia, existe en elojo humano un plano que contiene al eje para el cual la convergencia es máxima y otroperpendicular para el cual es mínima, lo que origina una doble imagen astigmática. (a) (b) (c) Figura 2.10. Problemas: (a) Ojo miope, (b) Ojo hipermétrope, (c) Astigmatismo. 9Física de la Visión Jaime Martínez Verdú
  • 97. Tema 2 – Sistema de visión humano BLOQUE I: Introducción a la Óptica2.4. Aberraciones en el ojo. A pesar de que el ojo humano es un sistema óptico con fuertes aberraciones suefecto no es excesivamente molesto. A continuación, analizaremos dos de lasaberraciones más importantes: esférica y cromática.Aberración Esférica: El ojo se comporta como un sistema subcorregido pues cuando la pupila estácerrada en altas luminosidades su efecto es relativamente despreciable. Cuando la pupilase abre hasta 5 mm la aberración esférica se hace mayor. Sin embargo, los rayos quepenetran por el borde de la pupila tienen una eficiencia luminosa 5 veces menor que sientran por las proximidades del eje. En el peor de los casos, cuando la pupila está muyabierta, convierte al ojo en miope desplazando la imagen 0.25 dp.Aberración Cromática: Debido a esta aberración los focos correspondientes a los colores violeta,amarillo y rojo se forman muy distanciados. A pesar de ello, esto tampoco se notacuando se observa con luz blanca, pues el ojo enfoca sobre la imagen verde-amarillapara la cual tiene mayor sensibilidad. Cuando más se recibe el efecto de la aberración cromática es al observar una telade bandas y cuadros, unos rojos y otros azules. El ojo entra en rápidos movimientos deacomodación tratando de ver nítidas y simultáneamente las líneas de división por amboslados, lo que es imposible y molesto. Foco para un haz de rayos paraxial Foco de luz roja Luz blanca procedente de un objeto lejano Luz blanca procedente de un objeto lejano Foco para un haz de rayos intermedio Foco de luz azul Foco para un haz de rayos próximo al borde (a) (b) Figura 2.10. Aberraciones: (a) Aberración cromática; (b) Aberración esférica. 10Física de la Visión Jaime Martínez Verdú
  • 98. Tema 2 – Sistema de visión humano BLOQUE I: Introducción a la Óptica2.5. Visión binocular. Cuando un objeto se observa con los dos ojos, en cada ojo se produce unaimagen con diferente perspectiva. Parecería lógico que se vieran dos imágenes. Sinembargo, no se ven dos imágenes sino que se ve una y con ello se tiene la sensación deprofundidad o vista 3-D. La sensación de profundidad (capacidad de apreciar que un punto está másdistante que otro) está ligada al ángulo que forman entre sí los ejes visuales de los dosojos cuando se dirigen a dichos puntos. En promedio, se aprecia que P1 y P2 están adiferente distancia si la diferencia α1 – α2 es al menos de 30. Por tanto, para mayoresdistancias que un punto para el cual los ejes visuales formen un ángulo de 30 ya no seaprecia relieve. X + ∆x mm x mm α1 32,5 mm 2 α2 2 Figura 2.11. Visión binocular: Límites de la sensación de profundidad. La distancia media entre los centros de las pupilas de los ojos es unos 65 mm.Teniendo en cuenta este resultado, la distancia máxima a partir de la cual no se puedeapreciar la profundidad es unos 450 m. A pesar de ello el cerebro humano dispone deestrategias para la percepción de la visión en 3-D incluso a distancias mucho máslejanas. Ahora, veremos un ejemplo de ausencia de profundidad a partir de 450 m:α1  32,5  32,5  = arctg  ≈ ≈ 7.22·10 −5 º ⇒ 0.26" 2  450.000  450.000   ⇒ α1 − α 2 = 2·(0.26"−0.12") = 0.28" < 30"α2  32,5  32,5 = arctg  ≈ ≈ 3.25·10 º ⇒ 0.12" −52  1.000.000  1.000.000   Un ejemplo que existe en la naturaleza con respecto a la visión binocular es elhecho de que los depredadores poseen los ojos juntos para poder medir distancias deforma precisa y óptima, mientras que las presas tienen los ojos separados para podertener un mayor campo de visión para descubrir los diversos peligros que les acechan. Cuando el ojo no puede percibir la profundidad emplea una serie de estrategiaspara conseguir ver en profundidad. Las estrategias son: Interposición Situación que se da cuando un cuerpo tapa a otro más cercano. Sombras A través de las sombras de los objetos consigue percibir laprofundidad. Perspectiva lineal Objetos que aparecen juntos en alguna imagen dan mássensación de lejanía que aquellos objetos pero separados (tamaños relativos y Gradientede texturas). 11Física de la Visión Jaime Martínez Verdú
  • 99. Tema 2 – Sistema de visión humano BLOQUE I: Introducción a la Óptica (a) A AA A A (b) (c) Figura 2.12. Ejemplos de Perspectiva lineal: (a) Gradiente de texturas; (b) Tamaños relativos; (c) Cercanía de objetos. 12Física de la Visión Jaime Martínez Verdú
  • 100. Tema 2 – Sistema de visión humano BLOQUE I: Introducción a la Óptica2.6. Visión de objetos en movimiento. Cuando una fuente luminosa aparece y desaparece en un tiempo muy corto, alobservador siempre le parece que ha tenido una duración apreciable, del orden de 0,15seg, lo que recibe el nombre de persistencia de las imágenes. La medida de persistenciapuede hacerse imprimiendo a una fuente puntual de luz en movimiento circular, con locual, si la velocidad es suficiente, se verá una circunferencia de trazo continuo.Disminuyendo la velocidad se llega a una situación donde la continuidad se rompe, dela cual se puede deducir la persistencia. Cuando dos imágenes idénticas aparecen sucesivamente en puntos próximos delcampo visual con intervalos de tiempo menores que el de persistencia, se tiene unasensación de que se trata de un solo objeto que se mueve de una posición a otra (en ellose funda la sensación de movimiento en el cine y en los anuncios luminosos). Cuando se observa una fuente luminosa de luminancia fluctuante y periódica, sila frecuencia es pequeña se observa un parpadeo, pero a partir de la frecuencia crítica seproduce la "fusión" y aparece una luminancia constante igual a la media temporal tal ycomo viene definida mediante la ley de Talbot: t < L >= ∫ L(τ )dτ 1 (3) t0 La frecuencia crítica de fusión viene regida por la ley de Ferry-Porter: f .c. f . = a·log < L > +b (4) Donde a y b son constantes que dependen de las condiciones de observación yque hay que determinar experimentalmente en cada caso. Efecto estroboscópico: Tiene lugar, por ejemplo, cuando la imagen de una rueda que vemos no es unaimagen continua, sino que por alguna razón solo la visualizamos de una formaperiódica. Ese es el caso de las películas de cine o de televisión. Los fotogramas de la película se proyectan a razón de 24 por segundo. Si en ese avo24 de segundo la rueda ha girado de forma que los radios de la misma están muycerca de la posición del fotograma anterior, pero un poco retrasados nos da la impresiónde que gira hacia atrás. Si coincidieran en la misma posición nos parecería que la ruedaestá parada. Y si los radios quedan ligeramente adelantados entonces ya parece que girahacía adelante, pero a lo mejor nos da la impresión de que gira lentamente. Incluso si elcarro está acelerando o frenando se pasa por todas estas fases: Se las ve hacia adelante,se paran, retroceden... 13Física de la Visión Jaime Martínez Verdú
  • 101. Tema 2 – Sistema de visión humano BLOQUE I: Introducción a la Óptica2.7. Ilusiones ópticas. ¿Cuál cuadrado es mayor de ambos? ¿Qué círculo es más grande, el que está envuelto por círculos pequeños o grandes? ¿Qué hexágono estás viendo? ¿Qué recta es más larga? 14Física de la Visión Jaime Martínez Verdú
  • 102. Tema 2 – Sistema de visión humano BLOQUE I: Introducción a la Óptica ¿Cuál de ambos segmentos tiene mayor longitud? ¿Ves el cuadrado o la otra figura? ¿Cuál animal ves, un dálmata o una hiena? 15Física de la Visión Jaime Martínez Verdú
  • 103. Tema 2 – Sistema de visión humano BLOQUE I: Introducción a la Óptica ¿Qué ves, una copa o dos personas mirándose mutuamente? ¿Qué edad tiene esta mujer? 16Física de la Visión Jaime Martínez Verdú
  • 104. Tema 2 – Sistema de visión humano BLOQUE I: Introducción a la Óptica2.8. Bibliografía. Óptica. Justiniano Casas.Óptica Fisiológica: Psicofísica de la visión. J. M. Ártigas, P. Capilla, A. Felipe, J. Pujol. 17Física de la Visión Jaime Martínez Verdú
  • 105. 3.1. Magnitudes fotométricas y radiométricas. Además de la frecuencia (y longitud de onda) ya señaladas, existen otrasmagnitudes significativas en la radiación electromagnética, algunas especialmenteimportantes desde el punto de vista óptico. Estas magnitudes están relacionadas con lapercepción que tenemos de la luz.El ángulo sólido. Para explicar el concepto de ángulosólido ω pensemos en un punto O situado a unadistancia r de una superficie S no necesariamenteplana. Ahora, formemos un cono con vértice enO cuyas generatrices pasen por el contorno de S. Figura 3.1. Ángulo sólidoA continuación, hagamos una esfera de radio uno con centro en O. Al área de lasuperficie de la esfera interceptada por el cono se la conoce por ángulo sólido y su valores: S ω= r2 Su unidad es el estereorradián (sr).3.1.1. Magnitudes radiométricas. Flujo radiante. Las radiaciones electromagnéticas transportan energía, de forma que un objetoluminoso (radiador) emite energía y cualquier objeto iluminado la recibe. La potenciaradiante o flujo radiante Fe es la medida de la cantidad de energía electromagnéticaque emite un radiador por unidad de tiempo. Se mide en Watt, vatios. La energía transportada puede manifestarse de formas muy diversas en loscuerpos que la reciben: propiciando reacciones químicas (fotosíntesis y bronceado),efectos eléctricos (fotocélulas), efectos mecánicos (viento solar), calentamiento (estufasde infrarrojos), etc. Intensidad radiante (Ie). La intensidad radiante Ie expresa la energía emitida por un cuerpo radiante encada dirección del espacio. Se expresa en Watts/estereorradián (W/sr). Si el radiadoremite por igual en todas direcciones y dado que una esfera tiene 4π estereorradianes,puede establecerse que un emisor cuyo flujo radiante sea Fe, produce en susinmediaciones una intensidad radiante Ie = Fe / 4π Watt/sr. Flujo emitido dF Ie = ⇒ Ie = e Ángulo sólido dω
  • 106. Excitancia radiante (Me). Los efectos de la radiación electromagnética se expresan mejor en término de laenergía emitida (o recibida) por unidad de superficie en unidad de tiempo. En estesentido, más que el flujo radiante del emisor (que puede estar muy alejado) o laintensidad, interesa la densidad de radiación Me, que es el valor de la potencia radiantepor unidad de superficie. Se expresa en W/m2. Flujo emitido dF Me = ⇒ Me = e Su p erfície emisora dS Conocida la intensidad radiante Ie de un emisor, puede calcularse la densidad desu radiación Me a una distancia d: Ie Me = d2 Como puede verse, la densidad de radiación decrece rápidamente al alejarse delfoco emisor (con el cuadrado de la distancia). Por esta razón, los planetas más alejadosdel Sol son comparativamente más fríos que los más próximos, y la "luz" de unalinterna ilumina más intensamente los objetos próximos que los lejanos. Radiancia (Le). La radiancia de superficie dS en una dirección se define como cociente de laintensidad radiante en dicha dirección por el área aparente del elemento emisor, esdecir, un área proyectada sobre un plano normal a la dirección considerada. Intensidad radiante I Ie Le = ⇒ Le = e = Su p erfície aparente dS dS cos(α ) Irradiancia (Ee). Se define como cociente del flujo energético dFr que recibe en total y en todaslas direcciones un área dS, dividido por el área receptora: Flujo recibido dF Er = ⇒ Er = r Su p erfície receptora dS3.1.2. Magnitudes fotométricas.Flujo luminoso. Para hacernos una primera idea consideraremos dos bombillas, una de 25 W yotra de 60 W. Está claro que la de 60 W dará una luz más intensa. Pues bien, esta es laidea: ¿cuál luce más? o dicho de otra forma ¿cuánto luce cada bombilla?
  • 107. Cuando hablamos de 25 W o 60 W nos referimos sólo a la potencia consumidapor la bombilla de la cual solo una parte se convierte en luz visible, es el llamado flujoluminoso. Podríamos medirlo en watts (W), pero parece más sencillo definir una nuevaunidad, el lumen, que tome como referencia la radiación visible. Empíricamente sedemuestra que a una radiación de 555 nm de 1 W de potencia emitida por un cuerponegro le corresponden 683 lumen. Se define el flujo luminoso como la potencia (W) emitida en forma de radiaciónluminosa a la que el ojo humano es sensible. Su símbolo es φ y su unidad es el lumen(lm). A la relación entre watts y lúmenes se le llama equivalente luminoso de laenergía y equivale a: φ = Fe , λ ·Vλ 1 watt-luz a 555 nm = 683 lmIntensidad luminosa. El flujo luminoso nos da una idea de la cantidad de luz que emite una fuente deluz, por ejemplo una bombilla, en todas las direcciones del espacio. Por contra, sipensamos en un proyector es fácil ver que sólo ilumina en una dirección. Parece claroque necesitamos conocer cómo se distribuye el flujo en cada dirección del espacio ypara eso definimos la intensidad luminosa. Diferencia entre flujo e intensidad luminosa. Se conoce como intensidad luminosa al flujo luminoso emitido por unidad deángulo sólido en una dirección concreta. Su símbolo es I y su unidad la candela (cd).
  • 108. Para iluminar espacios carentes de luz es necesaria la presencia de fuentes de luzartificales, las lámparas, y aparatos que sirvan de soporte y distribuyanadecuadamente la luz, las luminarias. De esta forma es posible vencer las limitacionesque la naturaleza impone a las actividades humanas.Lámparas incandescentesLas lámparas incandescentes fueron la primera forma de producir luz a partir de laelectricidad y surgieron a finales del siglo XIX. En la actualidad siguen siendo una delas formas más utilizadas de producir de luz, sobretodo en los ámbitos domésticos.Lámparas de descarga. ConceptosPrincipios de funcionamiento y características de estas lámparas que funcionangracias al fenómeno de la luminiscencia.Clases de lámparas de descargaTipos de lámparas de descarga según las características de los gases que las forman.LuminariasDefinición y clasificaciones de las luminarias. 1
  • 109. Las lámparas incandescentes fueron la primera forma de generar luz a partir de la energíaeléctrica. Desde que fueran inventadas, la tecnología ha cambiado mucho produciéndosesustanciosos avances en la cantidad de luz producida, el consumo y la duración de las lámparas.Su principio de funcionamiento es simple, se pasa una corriente eléctrica por un filamento hastaque este alcanza una temperatura tan alta que emite radiaciones visibles por el ojo humano.La incandescenciaTodos los cuerpos calientes emiten energía en forma de radiación electromagnética. Mientrasmás alta sea su temperatura mayor será la energía emitida y la porción del espectroelectromagnético ocupado por las radiaciones emitidas. Si el cuerpo pasa la temperatura deincandescencia una buena parte de estas radiaciones caerán en la zona visible del espectro yobtendremos luz.La incandescencia se puede obtener de dos maneras. La primera es por combustión de algunasustancia, ya sea sólida como una antorcha de madera, líquida como en una lámpara de aceite ogaseosa como en las lámparas de gas. La segunda es pasando una corriente eléctrica a través deun hilo conductor muy delgado como ocurre en las bombillas corrientes. Tanto de una formacomo de otra, obtenemos luz y calor (ya sea calentando las moléculas de aire o por radiacionesinfrarrojas). En general los rendimientos de este tipo de lámparas son bajos debido a que lamayor parte de la energía consumida se convierte en calor. Rendimiento de una lámpara incandescenteLa producción de luz mediante la incandescencia tiene una ventaja adicional, y es que la luzemitida contiene todas las longitudes de onda que forman la luz visible o dicho de otra manera,su espectro de emisiones es continuo. De esta manera se garantiza una buena reproducción delos colores de los objetos iluminados. 2
  • 110. Características de una lámpara incandescenteEntre los parámetros que sirven para definir una lámpara tenemos las característicasfotométricas: la intensidad luminosa, el flujo luminoso y el rendimiento o eficiencia. Además deestas, existen otros que nos informan sobre la calidad de la reproducción de los colores y losparámetros de duración de las lámparas.Características cromáticasLos colores que vemos con nuestros ojos dependen en gran medida de las característicascromáticas de las fuentes de luz. Por poner un ejemplo, no se ve igual una calle de noche a la luzde las farolas iluminadas por lámparas de luz blanca que con lámparas de luz amarilla.A la hora de describir las cualidades cromáticas de las fuentes de luz hemos de considerar dosaspectos. El primero trata sobre el color que presenta la fuente. Y el segundo describe cómo sonreproducidos los colores de los objetos iluminados por esta. Para evaluarlos se utilizan dosparámetros: la temperatura de color y el rendimiento de color que se mide con el IRC.La temperatura de color hace referencia al color de la fuente luminosa. Su valor coincide conla temperatura a la que un cuerpo negro tiene una apariencia de color similar a la de la fuenteconsiderada. Esto se debe a que sus espectros electromagnéticos respectivos tienen unadistribución espectral similar. Conviene aclarar que los conceptos temperatura de color ytemperatura de filamento son diferentes y no tienen porque coincidir sus valores.El rendimiento en color, por contra, hace referencia a cómo se ven los colores de los objetosiluminados. Nuestra experiencia nos indica que los objetos iluminados por un fluorescente no seven del mismo tono que aquellos iluminados por bombillas. En el primer caso destacan más lostonos azules mientras que en el segundo lo hacen los rojos. Esto se debe a que la luz emitida porcada una de estas lámparas tiene un alto porcentaje de radiaciones monocromáticas de color azulo rojo. Fuente de luz blanca. Fuente de luz monocromática. Efecto del color de la fuente sobre el color de los objetosPara establecer el rendimiento en color se utiliza el índice de rendimiento de color (IRC o Ra)que compara la reproducción de una muestra de colores normalizada iluminada con nuestrafuente con la reproducción de la misma muestra iluminada con una fuente patrón de referencia.Características de duraciónLa duración de una lámpara viene determinada básicamente por la temperatura de trabajo delfilamento. Mientras más alta sea esta, mayor será el flujo luminoso pero también la velocidad deevaporación del material que forma el filamento. Las partículas evaporadas, cuando entren encontacto con las paredes se depositarán sobre estas, ennegreciendo la ampolla. De esta manerase verá reducido el flujo luminoso por ensuciamiento de la ampolla. Pero, además, el filamentose habrá vuelto más delgado por la evaporación del tungsteno que lo forma y se reducirá, en 3
  • 111. consecuencia, la corriente eléctrica que pasa por él, la temperatura de trabajo y el flujoluminoso. Esto seguirá ocurriendo hasta que finalmente se rompa el filamento. A este procesose le conoce como depreciación luminosa.Para determinar la vida de una lámpara disponemos de diferentes parámetros según lascondiciones de uso definidas. • La vida individual es el tiempo transcurrido en horas hasta que una lámpara se estropea, trabajando en unas condiciones determinadas. • La vida promedio es el tiempo transcurrido hasta que se produce el fallo de la mitad de las lámparas de un lote representativo de una instalación, trabajando en unas condiciones determinadas. • La vida útil es el tiempo estimado en horas tras el cual es preferible sustituir un conjunto de lámparas de una instalación a mantenerlas. Esto se hace por motivos económicos y para evitar una disminución excesiva en los niveles de iluminación en la instalación debido a la depreciación que sufre el flujo luminoso con el tiempo. Este valor sirve para establecer los periodos de reposición de las lámparas de una instalación. • La vida media es el tiempo medio que resulta tras el análisis y ensayo de un lote de lámparas trabajando en unas condiciones determinadas.La duración de las lámparas incandescentes está normalizada; siendo de unas 1000 horas paralas normales, para las halógenas es de 2000 horas para aplicaciones generales y de 4000 horaspara las especiales.Factores externos que influyen en el funcionamiento de laslámparasLos factores externos que afectan al funcionamiento de las lámparas son la temperatura delentorno dónde esté situada la lámpara y las desviaciones en la tensión nominal en los bornes.La temperatura ambiente no es un factor que influya demasiado en el funcionamiento de laslámparas incandescentes, pero sí se ha de tener en cuenta para evitar deterioros en los materialesempleados en su fabricación. En las lámparas normales hay que tener cuidado de que latemperatura de funcionamiento no exceda de los 200º C para el casquillo y los 370º C para elbulbo en el alumbrado general. Esto será de especial atención si la lámpara está alojada enluminarias con mala ventilación. En el caso de las lámparas halógenas es necesario unatemperatura de funcionamiento mínima en el bulbo de 260º C para garantizar el cicloregenerador del wolframio. En este caso la máxima temperatura admisible en la ampolla es de520º C para ampollas de vidrio duro y 900º C para el cuarzo.Las variaciones de la tensión se producen cuando aplicamos a la lámpara una tensión diferentede la tensión nominal para la que ha sido diseñada. Cuando aumentamos la tensión aplicada seproduce un incremento de la potencia consumida y del flujo emitido por la lámpara pero sereduce la duración de la lámpara. Análogamente, al reducir la tensión se produce el efectocontrario. 4
  • 112. Efecto de las variaciones de tensión (%) sobre las características de funcionamiento de las lámparas incandescentesPartes de una lámparaLas lámparas incandescentes están formadas por un hilo de wolframio que se calienta por efectoJoule alcanzando temperaturas tan elevadas que empieza a emitir luz visible. Para evitar que elfilamento se queme en contacto con el aire, se rodea con una ampolla de vidrio a la que se le hahecho el vacío o se ha rellenado con un gas. El conjunto se completa con unos elementos confunciones de soporte y conducción de la corriente eléctrica y un casquillo normalizado que sirvepara conectar la lámpara a la luminaria. Ampolla | Filamento | Soporte | Gas de relleno Vástago | Hilos conductores | CasquilloAmpolla o bulboLa ampolla es una cubierta de vidrio que da forma a la lámpara y protege el filamentodel aire exterior evitando que se queme. Si no fuera así, el oxígeno del aire oxidaría elmaterial del filamento destruyéndolo de forma inmediata.Las ampollas pueden ser de vidrio transparente, de vidrio blanco translúcido o decolores proporcionando en este último caso una luz de color monocromática en lugarde la típica luz blanca. 5
  • 113. Algunas formas típicas de ampollasFilamentoPara que una lámpara incandescente emita luz visible, es necesario calentar elfilamento hasta temperaturas muy elevadas. Esto se consigue pasando una corrienteeléctrica a través de un material conductor por efecto Joule.Como la temperatura depende de la resistencia eléctrica es necesario que esta últimasea muy elevada. Para conseguirlo podemos actuar de dos formas. En primer lugar,que el filamento esté compuesto por un hilo muy largo y delgado; de esta manera loselectrones tendrán más dificultad para pasar por el cable y aumentará la resistencia. Yla segunda posibilidad es emplear un material que tenga una resistividad eléctricaelevada.También es muy importante que el filamento tenga un punto de fusión alto y unavelocidad de evaporación lenta que evite un rápido desgaste por desintegración delhilo. De esta manera se pueden alcanzar temperaturas de funcionamiento más altas y,por tanto, mayores eficacias.Para mejorar la eficacia luminosa de las lámparas se arrolla el filamento en forma dedoble espiral. De esta manera se consigue que emitiendo la misma cantidad de luz, elfilamento presente una menor superficie de intercambio de calor con el gas que rellenala ampolla, por lo que las pérdidas por este motivo se reducen al mínimo.En la actualidad el material más empleado para los filamentos es el tungsteno owolframio (W) por sus elevadas prestaciones que se ajustan a los requisitos exigidosademás de ser una materia prima asequible.Soporte del filamento: vástago, varillas de soporte e hilosconductoresEl filamento está fijado a la lámpara por un conjunto de elementos que tienen misionesde sujeción y conducción de la electricidad.Los hilos conductores transportan la electricidad desde el casquillo a los hilos desoporte a través del vástago. Para evitar el deterioro de las varillas de soporte esnecesario un material, normalmente se usa el molibdeno, que aguante las altastemperaturas y no reaccione químicamente con el tungsteno del filamento. 6
  • 114. El vástago es de vídrio con plomo, un material con excelentes propiedades de aislanteeléctrico, que mantiene separada la corriente de los dos conductores que loatraviesan. Además, y gracias a su interior hueco sirve para hacer el vacío en laampolla y rellenarla de gas (cuando se requiera).Gas de rellenoAunque antiguamente se hacía el vacío en el interior de la ampolla, en la actualidad serellena con un gas inerte por las ventajas que presenta. Con el gas se consigue reducirla evaporación del filamento e incrementar la temperatura de trabajo de la lámpara y elflujo luminoso emitido. Los gases más utilizados son el nitrógeno en pequeñasproporciones que evita la formación de arcos y el argón que reduce la velocidad deevaporación del material que forma el filamento. Las proporciones empleadas varíansegún la aplicación de la lámpara y la tensión de trabajo. Aumentando la presión delgas se consigue, además, disminuir la evaporación del filamento y aumentar la eficacialuminosa y vida de la lámpara.CasquilloEl casquillo cumple dos importantes funciones en la lámpara. Por un lado, sirve paraconectar el filamento a la corriente eléctrica proveniente del portalámparas. Y por elotro, permite la sujeción de la lámpara a la luminaria evitando su deterioro. En sufabricación se usan habitualmente el latón, el aluminio o el níquel.Los casquillos empleados en alumbrado general son de dos tipos: Edison (E) yBayoneta (B). Para su nomenclatura se utiliza la inicial de la clase seguida deldiámetro en milímetros. Por ejemplo, E25 quiere decir que tenemos una lámpara concasquillo Edison de 25 mm de diámetro. Casquillo de Casquillo de rosca bayonetaTipos de lámparasExisten dos tipos de lámparas incandescentes: las que contienen un gas halógeno en su interior ylas que no lo contienen:Lámparas no halógenasEntre las lámparas incandescentes no halógenas podemos distinguir las que se han rellenado conun gas inerte de aquellas en que se ha hecho el vacío en su interior. La presencia del gas suponeun notable incremento de la eficacia luminosa de la lámpara dificultando la evaporación delmaterial del filamento y permitiendo el aumento de la temperatura de trabajo del filamento. Laslámparas incandescentes tienen una duración normalizada de 1000 horas, una potencia entre 25y 2000 W y unas eficacias entre 7.5 y 11 lm/W para las lámparas de vacío y entre 10 y 20 paralas rellenas de gas inerte. En la actualidad predomina el uso de las lámparas con gas,reduciéndose el uso de las de vacío a aplicaciones ocasionales en alumbrado general conpotencias de hasta 40 W. 7
  • 115. Lámparas con Lámparas de gas vacío Temperatura del 2500 ºC 2100 ºC filamento Eficacia luminosa de la 10-20 lm/W 7.5-11 lm/W lámpara Duración 1000 horas 1000 horas Convección y Pérdidas de calor Radiación radiaciónLámparas halógenas de alta y baja tensiónEn las lámparas incandescentes normales, con el paso del tiempo, se produce una disminuciónsignificativa del flujo luminoso. Esto se debe, en parte, al ennegrecimiento de la ampolla porculpa de la evaporación de partículas de wolframio del filamento y su posterior condensaciónsobre la ampolla.Agregando una pequeña cantidad de un compuesto gaseoso con halógenos (cloro, bromo oyodo), normalmente se usa el CH2Br2, al gas de relleno se consigue establecer un ciclo deregeneración del halógeno que evita el ennegrecimiento. Cuando el tungsteno (W) se evapora seune al bromo formando el bromuro de wolframio (WBr2). Como las paredes de la ampolla estánmuy calientes (más de 260 ºC) no se deposita sobre estas y permanece en estado gaseoso.Cuando el bromuro de wolframio entra en contacto con el filamento, que está muy caliente, sedescompone en W que se deposita sobre el filamento y Br que pasa al gas de relleno. Y así, elciclo vuelve a empezar. Ciclo del halógenoEl funcionamiento de este tipo de lámparas requiere de temperaturas muy altas para que puedarealizarse el ciclo del halógeno. Por eso, son más pequeñas y compactas que las lámparasnormales y la ampolla se fabrica con un cristal especial de cuarzo que impide manipularla conlos dedos para evitar su deterioro.Tienen una eficacia luminosa de 22 lm/W con una amplia gama de potencias de trabajo (150 a2000W) según el uso al que estén destinadas. Las lámparas halógenas se utilizan normalmenteen alumbrado por proyección y cada vez más en iluminación doméstica. 8
  • 116. Las lámparas de descarga constituyen una forma alternativa de producir luz de una manera máseficiente y económica que las lámparas incandescentes. Por eso, su uso está tan extendido hoyen día. La luz emitida se consigue por excitación de un gas sometido a descargas eléctricas entredos electrodos. Según el gas contenido en la lámpara y la presión a la que esté sometidotendremos diferentes tipos de lámparas, cada una de ellas con sus propias característicasluminosas.FuncionamientoEn las lámparas de descarga, la luz se consigue estableciendo una corriente eléctrica entre doselectrodos situados en un tubo lleno con un gas o vapor ionizado.En el interior del tubo, se producen descargas eléctricas como consecuencia de la diferencia depotencial entre los electrodos. Estas descargas provocan un flujo de electrones que atraviesa elgas. Cuando uno de ellos choca con los electrones de las capas externas de los átomos lestransmite energía y pueden suceder dos cosas.La primera posibilidad es que la energía transmitida en el choque sea lo suficientemente elevadapara poder arrancar al electrón de su orbital. Este, puede a su vez, chocar con los electrones deotros átomos repitiendo el proceso. Si este proceso no se limita, se puede provocar ladestrucción de la lámpara por un exceso de corriente.La otra posibilidad es que el electrón no reciba suficiente energía para ser arrancado. En estecaso, el electrón pasa a ocupar otro orbital de mayor energía. Este nuevo estado acostumbra aser inestable y rápidamente se vuelve a la situación inicial. Al hacerlo, el electrón libera laenergía extra en forma de radiación electromagnética, principalmente ultravioleta (UV) ovisible. Un electrón no puede tener un estado energético cualquiera, sino que sólo puede ocuparunos pocos estados que vienen determinados por la estructura atómica del átomo. Como lalongitud de onda de la radiación emitida es proporcional a la diferencia de energía entre losestados inicial y final del electrón y los estados posibles no son infinitos, es fácil comprenderque el espectro de estas lámparas sea discontinuo. 9
  • 117. Relación entre los estados energéticos de los electrones y las franjas visibles en el espectroLa consecuencia de esto es que la luz emitida por la lámpara no es blanca (por ejemplo en laslámparas de sodio a baja presión es amarillenta). Por lo tanto, la capacidad de reproducir loscolores de estas fuentes de luz es, en general, peor que en el caso de las lámparas incandescentesque tienen un espectro continuo. Es posible, recubriendo el tubo con sustancias fluorescentes,mejorar la reproducción de los colores y aumentar la eficacia de las lámparas convirtiendo lasnocivas emisiones ultravioletas en luz visible.Elementos auxiliaresPara que las lámparas de descarga funcionen correctamente es necesario, en la mayoría de loscasos, la presencia de unos elementos auxiliares: cebadores y balastos. Los cebadores oignitores son dispositivos que suministran un breve pico de tensión entre los electrodos deltubo, necesario para iniciar la descarga y vencer así la resistencia inicial del gas a la corrienteeléctrica. Tras el encendido, continua un periodo transitorio durante el cual el gas se estabiliza yque se caracteriza por un consumo de potencia superior al nominal.Los balastos, por contra, son dispositivos que sirven para limitar la corriente que atraviesa lalámpara y evitar así un exceso de electrones circulando por el gas que aumentaría el valor de lacorriente hasta producir la destrucción de la lámpara.EficaciaAl establecer la eficacia de este tipo de lámparas hay que diferenciar entre la eficacia de lafuente de luz y la de los elementos auxiliares necesarios para su funcionamiento que dependedel fabricante. En las lámparas, las pérdidas se centran en dos aspectos: las pérdidas por calor ylas pérdidas por radiaciones no visibles (ultravioleta e infrarrojo). El porcentaje de cada tipodependerá de la clase de lámpara con que trabajemos. 10
  • 118. Balance energético de una lámpara de descargaLa eficacia de las lámparas de descarga oscila entre los 19-28 lm/W de las lámparas de luz demezcla y los 100-183 lm/W de las de sodio a baja presión. Eficacia sin balasto Tipo de lámpara (lm/W) Fluorescentes 38-91 Luz de mezcla 19-28 Mercurio a alta 40-63 presión Halogenuros 75-95 metálicos Sodio a baja presión 100-183 Sodio a alta presión 70-130Características cromáticasDebido a la forma discontinua del espectro de estas lámparas, la luz emitida es una mezcla deunas pocas radiaciones monocromáticas; en su mayor parte en la zona ultravioleta (UV) ovisible del espectro. Esto hace que la reproducción del color no sea muy buena y su rendimientoen color tampoco. Ejemplo de espectro de una lámpara de descargaPara solucionar este problema podemos tratar de completar el espectro con radiaciones delongitudes de onda distintas a las de la lámpara. La primera opción es combinar en una mismalámpara dos fuentes de luz con espectros que se complementen como ocurre en las lámparas deluz de mezcla (incandescencia y descarga). También podemos aumentar la presión del gas. Deesta manera se consigue aumentar la anchura de las líneas del espectro de manera que formenbandas anchas y más próximas entre sí. Otra solución es añadir sustancias sólidas al gas, que al 11
  • 119. vaporizarse emitan radiaciones monocromáticas complementarias. Por último, podemos recubrirla pared interna del tubo con una sustancias fluorescente que conviertan los rayos ultravioletasen radiaciones visibles.Características de duraciónHay dos aspectos básicos que afectan a la duración de las lámparas. El primero es ladepreciación del flujo. Este se produce por ennegrecimiento de la superficie de la superficie deltubo donde se va depositando el material emisor de electrones que recubre los electrodos. Enaquellas lámparas que usan sustancias fluorescentes otro factor es la perdida gradual de laeficacia de estas sustancias.El segundo es el deterioro de los componentes de la lámpara que se debe a la degradación de loselectrodos por agotamiento del material emisor que los recubre. Otras causas son un cambiogradual de la composición del gas de relleno y las fugas de gas en lámparas a alta presión. Tipo de lámpara Vida promedio (h) Fluorescente estándar 12500 Luz de mezcla 9000 Mercurio a alta presión 25000 Halogenuros metálicos 11000 Sodio a baja presión 23000 Sodio a alta presión 23000Factores externos que influyen en el funcionamientoLos factores externos que más influyen en el funcionamiento de la lámpara son la temperaturaambiente y la influencia del número de encendidos.Las lámparas de descarga son, en general, sensibles a las temperaturas exteriores. Dependiendode sus características de construcción (tubo desnudo, ampolla exterior...) se verán más o menosafectadas en diferente medida. Las lámparas a alta presión, por ejemplo, son sensibles a lasbajas temperaturas en que tienen problemas de arranque. Por contra, la temperatura de trabajoestará limitada por las características térmicas de los componentes (200º C para el casquillo yentre 350º y 520º C para la ampolla según el material y tipo de lámpara).La influencia del número de encendidos es muy importante para establecer la duración de unalámpara de descarga ya que el deterioro de la sustancia emisora de los electrodos depende engran medida de este factor.Partes de una lámparaLas formas de las lámparas de descarga varían según la clase de lámpara con que tratemos. Detodas maneras, todas tienen una serie de elementos en común como el tubo de descarga, loselectrodos, la ampolla exterior o el casquillo. 12
  • 120. Principales partes de una lámpara de descarga Ampolla | Tubo de descarga | Electrodos | Casquillo | GasAmpolla exteriorLa ampolla es un elemento que sirve para proteger al tubo de descarga de los agentesatmosféricos. Es un elemento presente en todas las lámparas excepto en las lámparasfluorescentes que no disponen de él. En su interior se hace el vacío o se rellena conun gas inerte. Sus formas son muy variadas y puede estar recubierta internamente consustancias fluorescentes que filtran y convierten las radiaciones ultravioletas envisibles mejorando el rendimiento en color de estas lámparas y su eficiencia.Tubo de descargaEs un tubo, normalmente de forma cilíndrica, donde se producen las descargaseléctricas entre los electrodos. Está relleno con un gas (vapor de mercurio o sodiohabitualmente) a alta o baja presión que determina las propiedades de la lámpara. Enlas lámparas fluorescentes se recubre la cara interna con sustancias fluorescentes queconvierten las emisiones ultravioletas en luz visible. Los materiales que se emplean ensu fabricación dependen del tipo de lámpara y de las condiciones de uso.ElectrodosLos electrodos son los elementos responsables de la descarga eléctrica en el tubo.Están hechos de wolframio y se conectan a la corriente a través del casquillo. Serecubren con una sustancia emisora para facilitar la emisión de los electrones en eltubo.CasquilloEl casquillo tiene la función de conectar los electrodos a la red a través delportalámparas. Puede ser de rosca o bayoneta aunque hay algunas lámparas comolas fluorescentes que disponen de casquillos de espigas con dos contactos en losextremos del tubo. Los materiales de que se elaboran dependerán de los requisitostérmicos y mecánicos de cada tipo de lámpara. 13
  • 121. GasEn el interior del tubo de descarga encontramos una mezcla entre un vapor de sodio omercurio y un gas inerte de relleno. El primero determina las propiedades de la luz dela lámpara y es el responsable de la emisión de la luz como consecuencia de ladescarga. El segundo, el gas inerte, cumple varias funciones. La principal es disminuirla tensión de ruptura necesaria para ionizar el gas que rellena el tubo e iniciar así ladescarga más fácilmente. Otras funciones que realiza son limitar la corriente deelectrones y servir de aislante térmico para ayudar a mantener la temperatura detrabajo de la lámpara. 14
  • 122. Las lámparas de descarga se pueden clasificar según el gas utilizado (vapor de mercurio osodio) o la presión a la que este se encuentre (alta o baja presión). Las propiedades varíanmucho de unas a otras y esto las hace adecuadas para unos usos u otros. • Lámparas de vapor de mercurio: o Baja presión: Lámparas fluorescentes o Alta presión: Lámparas de vapor de mercurio a alta presión Lámparas de luz de mezcla Lámparas con halogenuros metálicos • Lámparas de vapor de sodio: o Lámparas de vapor de sodio a baja presión o Lámparas de vapor de sodio a alta presiónLámparas de vapor de mercurioLámparas fluorescentesLas lámparas fluorescentes son lámparas de vapor de mercurio a baja presión (0.8 Pa). En estascondiciones, en el espectro de emisión del mercurio predominan las radiaciones ultravioletas enla banda de 253.7 nm. Para que estas radiaciones sean útiles, se recubren las paredes interioresdel tubo con polvos fluorescentes que convierten los rayos ultravioletas en radiaciones visibles.De la composición de estas sustancias dependerán la cantidad y calidad de la luz, y lascualidades cromáticas de la lámpara. En la actualidad se usan dos tipos de polvos; los queproducen un espectro continuo y los trifósforos que emiten un espectro de tres bandas con loscolores primarios. De la combinación estos tres colores se obtiene una luz blanca que ofrece unbuen rendimiento de color sin penalizar la eficiencia como ocurre en el caso del espectrocontinuo. Lámpara fluorescenteLas lámparas fluorescentes se caracterizan por carecer de ampolla exterior. Están formadas porun tubo de diámetro normalizado, normalmente cilíndrico, cerrado en cada extremo con uncasquillo de dos contactos donde se alojan los electrodos. El tubo de descarga está relleno convapor de mercurio a baja presión y una pequeña cantidad de un gas inerte que sirve para facilitarel encendido y controlar la descarga de electrones.La eficacia de estas lámparas depende de muchos factores: potencia de la lámpara, tipo ypresión del gas de relleno, propiedades de la sustancia fluorescente que recubre el tubo, 15
  • 123. temperatura ambiente... Esta última es muy importante porque determina la presión del gas y enúltimo término el flujo de la lámpara. La eficacia oscila entre los 38 y 91 lm/W dependiendo delas características de cada lámpara. Balance energético de una lámpara fluorescenteLa duración de estas lámparas se sitúa entre 5000 y 7000 horas. Su vida termina cuando eldesgaste sufrido por la sustancia emisora que recubre los electrodos, hecho que se incrementacon el número de encendidos, impide el encendido al necesitarse una tensión de ruptura superiora la suministrada por la red. Además de esto, hemos de considerar la depreciación del flujoprovocada por la pérdida de eficacia de los polvos fluorescentes y el ennegrecimiento de lasparedes del tubo donde se deposita la sustancia emisora.El rendimiento en color de estas lámparas varía de moderado a excelente según las sustanciasfluorescentes empleadas. Para las lámparas destinadas a usos habituales que no requieran degran precisión su valor está entre 80 y 90. De igual forma la apariencia y la temperatura de colorvaría según las características concretas de cada lámpara. Apariencia de color Tcolor (K) Blanco cálido 3000 Blanco 3500 Natural 4000 Blanco frío 4200 Luz día 6500Las lámparas fluorescentes necesitan para su funcionamiento la presencia de elementosauxiliares. Para limitar la corriente que atraviesa el tubo de descarga utilizan el balasto y para elencendido existen varias posibilidades que se pueden resumir en arranque con cebador o sin él.En el primer caso, el cebador se utiliza para calentar los electrodos antes de someterlos a latensión de arranque. En el segundo caso tenemos las lámparas de arranque rápido en las que secalientan continuamente los electrodos y las de arranque instantáneo en que la ignición seconsigue aplicando una tensión elevada.Más modernamente han aparecido las lámparas fluorescentes compactas que llevan incorporadoel balasto y el cebador. Son lámparas pequeñas con casquillo de rosca o bayoneta pensadas parasustituir a las lámparas incandescentes con ahorros de hasta el 70% de energía y unas buenasprestaciones.Lámparas de vapor de mercurio a alta presiónA medida que aumentamos la presión del vapor de mercurio en el interior del tubo de descarga,la radiación ultravioleta característica de la lámpara a baja presión pierde importancia respecto a 16
  • 124. las emisiones en la zona visible (violeta de 404.7 nm, azul 435.8 nm, verde 546.1 nm y amarillo579 nm). Espectro de emisión sin corregirEn estas condiciones la luz emitida, de color azul verdoso, no contiene radiaciones rojas. Pararesolver este problema se acostumbra a añadir sustancias fluorescentes que emitan en esta zonadel espectro. De esta manera se mejoran las características cromáticas de la lámpara. Latemperatura de color se mueve entre 3500 y 4500 K con índices de rendimiento en color de 40 a45 normalmente. La vida útil, teniendo en cuenta la depreciación se establece en unas 8000horas. La eficacia oscila entre 40 y 60 lm/W y aumenta con la potencia, aunque para una mismapotencia es posible incrementar la eficacia añadiendo un recubrimiento de polvos fosforescentesque conviertan la luz ultravioleta en visible. Balance energético de una lámpara de mercurio a alta presiónLos modelo más habituales de estas lámparas tienen una tensión de encendido entre 150 y 180V que permite conectarlas a la red de 220 V sin necesidad de elementos auxiliares. Paraencenderlas se recurre a un electrodo auxiliar próximo a uno de los electrodos principales queioniza el gas inerte contenido en el tubo y facilita el inicio de la descarga entre los electrodosprincipales. A continuación se inicia un periodo transitorio de unos cuatro minutos,caracterizado porque la luz pasa de un tono violeta a blanco azulado, en el que se produce lavaporización del mercurio y un incremento progresivo de la presión del vapor y el flujoluminoso hasta alcanzar los valores normales. Si en estos momentos se apagara la lámpara nosería posible su reencendido hasta que se enfriara, puesto que la alta presión del mercurio haríanecesaria una tensión de ruptura muy alta. 17
  • 125. Lámpara de mercurio a alta presiónLámparas de luz de mezclaLas lámparas de luz de mezcla son una combinación de una lámpara de mercurio a alta presióncon una lámpara incandescente y , habitualmente, un recubrimiento fosforescente. El resultadode esta mezcla es la superposición, al espectro del mercurio, del espectro continuo característicode la lámpara incandescente y las radiaciones rojas provenientes de la fosforescencia. Espectro de emisión de una lámpara de luz de mezclaSu eficacia se sitúa entre 20 y 60 lm/W y es el resultado de la combinación de la eficacia de unalámpara incandescente con la de una lámpara de descarga. Estas lámparas ofrecen una buenareproducción del color con un rendimiento en color de 60 y una temperatura de color de 3600 K.La duración viene limitada por el tiempo de vida del filamento que es la principal causa de fallo.Respecto a la depreciación del flujo hay que considerar dos causas. Por un lado tenemos elennegrecimiento de la ampolla por culpa del wolframio evaporado y por otro la pérdida deeficacia de los polvos fosforescentes. En general, la vida media se sitúa en torno a las 6000horas. 18
  • 126. Lámpara de luz de mezclaUna particularidad de estas lámparas es que no necesitan balasto ya que el propio filamentoactúa como estabilizador de la corriente. Esto las hace adecuadas para sustituir las lámparasincandescentes sin necesidad de modificar las instalaciones.Lámparas con halogenuros metálicosSi añadimos en el tubo de descarga yoduros metálicos (sodio, talio, indio...) se consigue mejorarconsiderablemente la capacidad de reproducir el color de la lámpara de vapor de mercurio. Cadauna de estas sustancias aporta nuevas líneas al espectro (por ejemplo amarillo el sodio, verde eltalio y rojo y azul el indio). Espectro de emisión de una lámpara con halogenuros metálicosLos resultados de estas aportaciones son una temperatura de color de 3000 a 6000 Kdependiendo de los yoduros añadidos y un rendimiento del color de entre 65 y 85. La eficienciade estas lámparas ronda entre los 60 y 96 lm/W y su vida media es de unas 10000 horas. Tienenun periodo de encendido de unos diez minutos, que es el tiempo necesario hasta que seestabiliza la descarga. Para su funcionamiento es necesario un dispositivo especial deencendido, puesto que las tensiones de arranque son muy elevadas (1500-5000 V). 19
  • 127. Lámpara con halogenuros metálicosLas excelentes prestaciones cromáticas la hacen adecuada entre otras para la iluminación deinstalaciones deportivas, para retransmisiones de TV, estudios de cine, proyectores, etc.Lámparas de vapor de sodioLámparas de vapor de sodio a baja presiónLa descarga eléctrica en un tubo con vapor de sodio a baja presión produce una radiaciónmonocromática característica formada por dos rayas en el espectro (589 nm y 589.6 nm) muypróximas entre sí. Espectro de una lámpara de vapor de sodio a baja presiónLa radiación emitida, de color amarillo, está muy próxima al máximo de sensibilidad del ojohumano (555 nm). Por ello, la eficacia de estas lámparas es muy elevada (entre 160 y 180lm/W). Otras ventajas que ofrece es que permite una gran comodidad y agudeza visual, ademásde una buena percepción de contrastes. Por contra, su monocromatismo hace que lareproducción de colores y el rendimiento en color sean muy malos haciendo imposibledistinguir los colores de los objetos. 20
  • 128. Balance energético de una lámpara de vapor de sodio a baja presiónLa vida media de estas lámparas es muy elevada, de unas 15000 horas y la depreciación de flujoluminoso que sufren a lo largo de su vida es muy baja por lo que su vida útil es de entre 6000 y8000 horas. Esto junto a su alta eficiencia y las ventajas visuales que ofrece la hacen muyadecuada para usos de alumbrado público, aunque también se utiliza con finalidadesdecorativas. En cuanto al final de su vida útil, este se produce por agotamiento de la sustanciaemisora de electrones como ocurre en otras lámparas de descarga. Aunque también se puedeproducir por deterioro del tubo de descarga o de la ampolla exterior. Lámpara de vapor de sodio a baja presiónEn estas lámparas el tubo de descarga tiene forma de U para disminuir las pérdidas por calor yreducir el tamaño de la lámpara. Está elaborado de materiales muy resistentes pues el sodio esmuy corrosivo y se le practican unas pequeñas hendiduras para facilitar la concentración delsodio y que se vaporice a la temperatura menor posible. El tubo está encerrado en una ampollaen la que se ha practicado el vacío con objeto de aumentar el aislamiento térmico. De estamanera se ayuda a mantener la elevada temperatura de funcionamiento necesaria en la pared deltubo (270 ºC).El tiempo de arranque de una lámpara de este tipo es de unos diez minutos. Es el tiemponecesario desde que se inicia la descarga en el tubo en una mezcla de gases inertes (neón yargón) hasta que se vaporiza todo el sodio y comienza a emitir luz. Físicamente esto secorresponde a pasar de una luz roja (propia del neón) a la amarilla característica del sodio. Seprocede así para reducir la tensión de encendido.Lámparas de vapor de sodio a alta presiónLas lámparas de vapor de sodio a alta presión tienen una distribución espectral que abarca casitodo el espectro visible proporcionando una luz blanca dorada mucho más agradable que laproporcionada por las lámparas de baja presión. 21
  • 129. Espectro de una lámpara de vapor de sodio a alta presiónLas consecuencias de esto es que tienen un rendimiento en color (Tcolor= 2100 K) y capacidadpara reproducir los colores mucho mejores que la de las lámparas a baja presión (IRC = 25,aunque hay modelos de 65 y 80 ). No obstante, esto se consigue a base de sacrificar eficacia;aunque su valor que ronda los 130 lm/W sigue siendo un valor alto comparado con los de otrostipos de lámparas. Balance energético de una lámpara de vapor de sodio a alta presiónLa vida media de este tipo de lámparas ronda las 20000 horas y su vida útil entre 8000 y 12000horas. Entre las causas que limitan la duración de la lámpara, además de mencionar ladepreciación del flujo tenemos que hablar del fallo por fugas en el tubo de descarga y delincremento progresivo de la tensión de encendido necesaria hasta niveles que impiden sucorrecto funcionamiento.Las condiciones de funcionamiento son muy exigentes debido a las altas temperaturas (1000ºC), la presión y las agresiones químicas producidas por el sodio que debe soportar el tubo dedescarga. En su interior hay una mezcla de sodio, vapor de mercurio que actúa comoamortiguador de la descarga y xenón que sirve para facilitar el arranque y reducir las pérdidastérmicas. El tubo está rodeado por una ampolla en la que se ha hecho el vacío. La tensión deencendido de estas lámparas es muy elevada y su tiempo de arranque es muy breve. 22
  • 130. Lámpara de vapor de sodio a alta presiónEste tipo de lámparas tienen muchos usos posibles tanto en iluminación de interiores como deexteriores. Algunos ejemplos son en iluminación de naves industriales, alumbrado público oiluminación decorativa. 23
  • 131. Las luminarias son aparatos que sirven de soporte y conexión a la red eléctrica a las lámparas.Como esto no basta para que cumplan eficientemente su función, es necesario que cumplan unaserie de características ópticas, mecánicas y eléctricas entre otras.A nivel de óptica, la luminaria es responsable del control y la distribución de la luz emitida porla lámpara. Es importante, pues, que en el diseño de su sistema óptico se cuide la forma ydistribución de la luz, el rendimiento del conjunto lámpara-luminaria y el deslumbramiento quepueda provocar en los usuarios. Otros requisitos que debe cumplir las luminarias es que sean defácil instalación y mantenimiento. Para ello, los materiales empleados en su construcción han deser los adecuados para resistir el ambiente en que deba trabajar la luminaria y mantener latemperatura de la lámpara dentro de los límites de funcionamiento. Todo esto sin perder de vistaaspectos no menos importantes como la economía o la estética.ClasificaciónLas luminarias pueden clasificarse de muchas maneras aunque lo más común es utilizar criteriosópticos, mecánicos o eléctricos.Clasificación según las características ópticas de la lámparaUna primera manera de clasificar las luminarias es según el porcentaje del flujo luminosoemitido por encima y por debajo del plano horizontal que atraviesa la lámpara. Es decir,dependiendo de la cantidad de luz que ilumine hacia el techo o al suelo. Según esta clasificaciónse distinguen seis clases. Directa Semi-directa General Directa- difusa indirecta 24
  • 132. Semi-directa Indirecta Clasificación CIE según la distribución de la luzOtra clasificación posible es atendiendo al número de planos de simetría que tenga el sólidofotométrico. Así, podemos tener luminarias con simetría de revolución que tienen infinitosplanos de simetría y por tanto nos basta con uno de ellos para conocer lo que pasa en el resto deplanos (por ejemplo un proyector o una lámpara tipo globo), con dos planos de simetría(transversal y longitudinal) como los fluorescentes y con un plano de simetría (el longitudinal)como ocurre en las luminarias de alumbrado viario.Luminaria con infinitos planos Luminaria con dos planos de Luminaria con un plano de de simetría simetría simetríaPara las luminarias destinadas al alumbrado público se utilizan otras clasificaciones.Clasificación según las características mecánicas de la lámparaLas luminarias se clasifican según el grado de protección contra el polvo, los líquidos y losgolpes. En estas clasificaciones, según las normas nacionales (UNE 20324) e internacionales,las luminarias se designan por las letras IP seguidas de tres dígitos. El primer número va de 0(sin protección) a 6 (máxima protección) e indica la protección contra la entrada de polvo ycuerpos sólidos en la luminaria. El segundo va de 0 a 8 e indica el grado de protección contra lapenetración de líquidos. Por último, el tercero da el grado de resistencia a los choques.Clasificación según las características eléctricas de la lámpara 25
  • 133. Según el grado de protección eléctrica que ofrezcan las luminarias se dividen en cuatro clases(0, I, II, III). Clase Protección eléctrica 0 Aislamiento normal sin toma de tierra I Aislamiento normal y toma de tierra II Doble aislamiento sin toma de tierra. Luminarias para conectar a circuitos de muy baja tensión, III sin otros circuitos internos o externos que operen a otras tensiones distintas a la mencionada.Otras clasificacionesOtras clasificaciones posibles son según la aplicación a la que esté destinada la luminaria(alumbrado viario, alumbrado peatonal, proyección, industrial, comercial, oficinas, doméstico...)o según el tipo de lámparas empleado (para lámparas incandescentes o fluorescentes). 26
  • 134. Contrariamente a lo que se pueda pensar, detrás de los cálculos y recomendacionessobre alumbrado de vías públicas existe un importante desarrollo teórico sobrediferentes temas (pavimentos, deslumbramiento, confort visual, etc.).Afortunadamente, hoy día estos cálculos están muy mecanizados y no es necesariotener profundos conocimientos en la materia para realizarlos. No obstante, esrecomendable tener nociones de algunos de ellos para comprender mejor la mecánicade cálculo. Así tras estudiar algunos conceptos previos de iluminación, veremossoluciones prácticas de alumbrado viario y los niveles de iluminación recomendados.IluminanciaLa iluminancia indica la cantidad de luz que llega a una superficie y se define como elflujo luminoso recibido por unidad de superficie:Si la expresamos en función de la intensidad luminosa nos queda como:donde I es la intensidad recibida por el punto P en la dirección definida por el par deángulos (C, ) y h la altura del foco luminoso. Si el punto está iluminado por más deuna lámpara, la iluminancia total recibida es entonces:LuminanciaLa luminancia, por contra, es una medida de la luz que llega a los ojos procedente delos objetos y es la responsable de excitar la retina provocando la visión. Esta luzproviene de la reflexión que sufre la iluminancia cuando incide sobre los cuerpos. Sepuede definir, pues, como la porción de intensidad luminosa por unidad de superficieque es reflejada por la calzada en dirección al ojo. 1
  • 135. L = q( , ) · EHdonde q es el coeficiente de luminancia en el punto P que depende básicamente delángulo de incidencia y del ángulo entre el plano de incidencia y el de observación .El efecto del ángulo de observación es despreciable para la mayoría de conductores(automovilistas con campo visual entre 60 y 160 m por delante y una altura de 1,5 msobre el suelo) y no se tiene en cuenta. Así pues, nos queda:Por comodidad de cálculo, se define el termino:Quedando finalmente:Y si el punto está iluminado por más de una lámpara, resulta:Los valores de r( , ) se encuentran tabulados o incorporados a programas de cálculoy dependen de las características de los pavimentos utilizados en la vía.Criterios de calidadPara determinar si una instalación es adecuada y cumple con todos los requisitos deseguridad y visibilidad necesarios se establecen una serie de parámetros que sirvencomo criterios de calidad. Son la luminancia media (Lm, LAV), los coeficientes deuniformidad (U0, UL), el deslumbramiento (TI y G) y el coeficiente de iluminación de losalrededores (SR).Coeficientes de uniformidad 2
  • 136. Como criterios de calidad y evaluación de la uniformidad de la iluminación en la vía seanalizan el rendimiento visual en términos del coeficiente global de uniformidad U0 y lacomodidad visual mediante el coeficiente longitudinal de uniformidad UL (medido a lolargo de la línea central). U0 = Lmin / Lm UL = Lmin / LmaxDeslumbramientoEl deslumbramiento producido por las farolas o los reflejos en la calzada, es unproblema considerable por sus posibles repercusiones. En sí mismo, no es más queuna sensación molesta que dificulta la visión pudiendo, en casos extremos, llegar aprovocar ceguera transitoria. Se hace necesario, por tanto, cuantificar este fenómeno yestablecer unos criterios de calidad que eviten estas situaciones peligrosas para losusuarios.Se llama deslumbramiento molesto a aquella sensación desagradable que sufrimoscuando la luz que llega a nuestros ojos es demasiado intensa. Este fenómeno seevalúa de acuerdo a una escala numérica, obtenida de estudios estadísticos, que vadel deslumbramiento insoportable al inapreciable. G Deslumbramiento Evaluación del alumbrado 1 Insoportable Malo 3 Molesto Inadecuado 5 Admisible Regular 7 Satisfactorio Bueno 9 Inapreciable ExcelenteDonde la fórmula de G se calcula a partir de características de la luminaria y lainstalación.Actualmente no se utiliza mucho porque se considera que siempre que no se excedanlos límites del deslumbramiento perturbador este está bajo control.El deslumbramiento perturbador se produce por la aparición de un velo luminosoque provoca una visión borrosa, sin nitidez y con poco contraste, que desaparece alcesar su causa. No obstante, este fenómeno no lleva necesariamente asociado unasensación incómoda como el deslumbramiento molesto. Para evaluar la pérdida devisión se utiliza el criterio del incremento de umbral (TI) expresado en tanto por ciento:donde Lv es la luminancia de velo equivalente y Lm es la luminancia media de lacalzada.Coeficiente de iluminación en los alrededoresEl coeficiente de iluminación en los alrededores (Surround Ratio, SR) es una medidade la iluminación en las zonas limítrofes de la vía. De esta manera se asegura que losobjetos, vehículos o peatones que se encuentren allí sean visibles para los 3
  • 137. conductores. SR se obtiene calculando la iluminacia media de una franja de 5 m deancho a cada lado de la calzada.Lámparas y luminariasLas lámparas son los aparatos encargados de generar la luz. En la actualidad, enalumbrado público se utilizan las lámparas de descarga frente a las lámparasincandescentes por sus mejores prestaciones y mayor ahorro energético y económico.Concretamente, se emplean las lámparas de vapor de mercurio a alta presión y las devapor de sodio a baja y alta presión.Las luminarias, por contra, son aparatos destinados a alojar, soportar y proteger lalámpara y sus elementos auxiliares además de concentrar y dirigir el flujo luminoso deesta. Para ello, adoptan diversas formas aunque en alumbrado público predominan lasde flujo asimétrico con las que se consigue una mayor superficie iluminada sobre lacalzada. Las podemos encontrar montadas sobre postes, columnas o suspendidassobre cables transversales a la calzada, en catenarias colgadas a lo largo de la vía ocomo proyectores en plazas y cruces.Antiguamente las luminarias se clasificaban según las denominaciones cut-off, semicut-off y non cut-off. Máximo valor permitido de la intensidad emitida para un ángulo de elevación Dirección de la intensidad máxima 80 º 90 º Cut-off 30 cd /1000 lm 10 cd /1000 lm 65 º Semi 100 cd /1000 lm 50 cd /1000 lm 75 º cut-off Non cut- > 100 cd /1000 lm > 50 cd /1000 lm 90º off Clasificación para luminarias de alumbrado público (CIE 1965)En la actualidad, las luminarias se clasifican según tres parámetros (alcance,dispersión y control) que dependen de sus características fotométricas. Los dosprimeros nos informan sobre la distancia en que es capaz de iluminar la luminaria enlas direcciones longitudinal y transversal respectivamente. Mientras, el control nos dauna idea sobre el deslumbramiento que produce la luminaria a los usuarios.El alcance es la distancia, determinada por el ángulo , en que la luminaria escapaz de iluminar la calzada en dirección longitudinal. Este ángulo se calcula como elvalor medio entre los dos ángulos correspondientes al 90% de IMAX que correspondenal plano donde la luminaria presenta el máximo de la intensidad luminosa. 4
  • 138. Alcance corto < 60º Alcance 60º intermedio 70º Alcance largo > 70º Alcance longitudinalLa dispersión es la distancia, determinada por el ángulo , en que es capaz deiluminar la luminaria en dirección transversal a la calzada. Se define como la rectatangente a la curva isocandela del 90% de IMAX proyectada sobre la calzada, que esparalela al eje de esta y se encuentra más alejada de la luminaria. Dispersión estrecha < 45º Dispersión media 45º 55º Dispersión ancha > 55º Dispersión transversalTanto el alcance como la dispersión pueden calcularse gráficamente a partir deldiagrama isocandela relativo en proyección azimutal. Alcance y dispersión de una luminaria Método gráfico para calcular el alcance y la dispersiónPor último, el control nos da una idea de la capacidad de la luminaria para limitar eldeslumbramiento que produce. 5
  • 139. Control limitado SLI < 2 Control medio 2 SLI 4 Control intenso SLI > 4Donde la fórmula del SLI (índice específico de la luminaria) se calcula a a partir de lascaracterísticas de esta.Disposición de las luminarias en la víaPara conseguir una buena iluminación, no basta con realizar los cálculos, debeproporcionarse información extra que oriente y advierta al conductor con suficienteantelación de las características y trazado de la vía. Así en curvas es recomendablesituar las farolas en la exterior de la misma, en autopistas de varias calzadas ponerlasen la mediana o cambiar el color de las lámparas en las salidas.En los tramos rectos de vías con una única calzada existen tres disposicionesbásicas: unilateral, bilateral tresbolillo y bilateral pareada. También es posiblesuspender la luminaria de un cable transversal pero sólo se usa en calles muyestrechas.La distribución unilateral se recomienda si la anchura de la vía es menor que la alturade montaje de las luminarias. La bilateral tresbolillo si está comprendida entre 1 y 1.5veces la altura de montaje y la bilateral pareada si es mayor de 1.5. Relación entre la anchura de la vía y la altura de montaje Unilateral A/H < 1 Tresbolillo 1 A/H 1.5 Pareada A/H > 1.5 Suspendida Calles muy estrechasEn el caso de tramos rectos de vías con dos o más calzadas separadas por unamediana se pueden colocar las luminarias sobre la mediana o considerar las doscalzadas de forma independiente. Si la mediana es estrecha se pueden colocar farolasde doble brazo que dan una buena orientación visual y tienen muchas ventajasconstructivas y de instalación por su simplicidad. Si la mediana es muy ancha espreferible tratar las calzadas de forma separada. Pueden combinarse los brazosdobles con la disposición al tresbolillo o aplicar iluminación unilateral en cada una deellas. En este último caso es recomendable poner las luminarias en el lado contrario ala mediana porque de esta forma incitamos al usuario a circular por el carril de laderecha. 6
  • 140. En tramos curvos las reglas a seguir son proporcionar una buena orientación visual yhacer menor la separación entre las luminarias cuanto menor sea el radio de la curva.Si la curvatura es grande (R>300 m) se considerará como un tramo recto. Si espequeña y la anchura de la vía es menor de 1.5 veces la altura de las luminarias seadoptará una disposición unilateral por el lado exterior de la curva. En el caso contrariose recurrirá a una disposición bilateral pareada, nunca tresbolillo pues no informasobre el trazado de la carretera. R > 300 m Asimilar a un tramo recto A/H < 1.5 Unilateral exterior R < 300 m A/H > 1.5 Bilateral pareadaEn cruces conviene que el nivel de iluminación sea superior al de las vías queconfluyen en él para mejorar la visibilidad. Asimismo, es recomendable situar lasfarolas en el lado derecho de la calzada y después del cruce. Si tiene forma de T hayque poner una luminaria al final de la calle que termina. En la salidas de autopistasconviene colocar luces de distinto color al de la vía principal para destacarlas. Encruces y bifurcaciones complicados es mejor recurrir a iluminación con proyectoressituados en postes altos, más de 20 m, pues desorienta menos al conductor yproporciona una iluminación agradable y uniforme. 7
  • 141. En las plazas y glorietas se instalarán luminarias en el borde exterior de estas paraque iluminen los accesos y salidas. La altura de los postes y el nivel de iluminaciónserá por lo menos igual al de la calle más importante que desemboque en ella.Además, se pondrán luces en las vías de acceso para que los vehículos vean a lospeatones que crucen cuando abandonen la plaza. Si son pequeñas y el terrapléncentral no es muy grande ni tiene arbolado se puede iluminar con un poste altomultibrazo. En otros casos es mejor situar las luminarias en el borde del terraplén enlas prolongaciones de las calles que desemboca en esta.En los pasos de peatones las luminarias se colocarán antes de estos según elsentido de la marcha de tal manera que sea bien visible tanto por los peatones comopor los conductores.Por último, hay que considerar la presencia de árboles en la vía. Si estos son altos,de unos 8 a 10 metros, las luminarias se situarán a su misma altura. Pero si sonpequeños las farolas usadas serán más altas que estos, de 12 a 15 m de altura. Enambos casos es recomendable una poda periódica de los árboles. 8
  • 142. Niveles de iluminación recomendadosLos niveles de iluminación recomendados dependen de las normativas en vigor encada territorio, aunque muchas de ellas toman como referencia los valoresaconsejados por la CIE. Según esta, las vías se dividen en cinco tipos de acuerdo conlas características del tráfico, de la vía y de los alrededores. Coeficientes de Control del Tipo de Luminancia media Lm uniformidad deslumbramiento Entorno Categoría 2 vía (cd/m ) Global Longitudinal Molesto G Perturbador TI U0 UL A A 2 6 Claro B1 2 0.7 5 10 % B Oscuro B2 1 6 Claro C1 2 5 20 % C 0.4 Oscuro C2 1 6 10 % D Claro D 2 0.5 4 Claro E1 1 4 20 % E Oscuro E2 0.5 5 Valores recomendados por la CIE (1977)Los valores indicados en la tabla son luminancias, no iluminancias, pues recordemosque son estas las responsables de provocar la sensación de visión.A partir de 1995 la CIE ha establecido unas nuevas recomendaciones más acordescon las últimas investigaciones sobre el tema. Coeficientes de Luminancia uniformidad Control Alrededores Categoría media Lm del deslumbramiento SR (cd/m ) Global Perturbador 2 TI U0 TI M1 2.00 0.7 M2 1.50 10 0.5 M3 1.00 0.4 0.5 M4 0.75 --- 15 --- M5 0.50 Valores recomendados por la CIE (1995)Además de estas recomendaciones que se aplican en los tramos normales de las víashay que considerar que en las zonas conflictivas (cruces, intersecciones,estrechamiento de la vía o del número de carriles, zonas con circulación de peatones ovehículos lentos que dificulten la circulación, rotondas, pasos a nivel, rampas, etc.)suele ser necesario un incremento de los requerimientos luminosos.Si trabajamos con luminancias hay que aumentar en una unidad la categoría de la víade valor de Mx más alta que converja en la zona. Cuando sea del tipo M1 a dicha zonatambién se aplicará este criterio. 9
  • 143. En distancias cortas, menos de 60 m, no se pueden aplicar los métodos de cálculos delas luminancias y se utiliza el criterio de las iluminancias. Nivel medio Coef global Categoría iluminancia Em (lux) uniformidad U0 C0 50 C1 30 C2 20 0.4 C3 15 C4 10 C5 7.5El número de la categoría de la zona de conflicto (Cx) no será menor que el de la lavía de mayor categoría (Mx) que confluya en la zona. 10
  • 144. BLOQUE II: SISTEMAS DE VISIÓN ARTIFICIAL.TEMA V: Sistemas de adquisición de imágenes.5.1. Arquitectura de un sistema de visión artificial 1 5.1.1. Procesos realizados en un sistema de adquisición de imágenes 1 a) Etapa de adquisición 1 b) Etapa de filtrado o preprocesado 2 c) Etapa de segmentación o aislamiento de objetos de interés 2 d) Etapa de extracción y selección de características 3 e) Etapa de reconocimiento de formas e inteligencia artificial 35.2. Sensores de imagen 5 5.2.1. Estructura general de los dispositivos CCD y CMOS 7 5.2.2. Estructura de los dispositivos CCD 8 5.2.3. Estructura de los dispositivos CMOS 8 5.2.4. Dispositivos CCD Vs CMOS 85.3. Características de los dispositivos CCD matriciales 95.4. Tarjetas de adquisición 11 5.4.1. Parámetros principales de una tarjetas de adquisición 12 5.4.2. Mecanismo de la ganancia en una tarjeta de adquisición 135.5. Bibliografía 14
  • 145. Tema 5 – Sistemas de adq. de imágenes BLOQUE II: Sistemas de Visión Artificial5.1. Arquitectura de un sistema de visión artificial. Un Sistema de Visión Artificial se trata de aquel concepto donde se mantienenunidas nociones de visión y de computadores. Mediante un proceso de extracciónfotográfico somos capaces de obtener información a partir de unas determinadasimágenes del mundo físico. A través de estas imágenes, logramos capturar lasprincipales características de los objetos que deseamos analizar hasta el punto de llegara definirlos casi en su totalidad. Tarjeta de adquisición Monitor analógico Información Sensor analógica visual BUS Información digital Consola Computador Figura 5.1. Arquitectura general de un sistema de adquisición de imágenes.5.1.1. Procesos realizados en un sistema de adquisición de imágenes. La operación básica en los sistemas de adquisición de imágenes es laespecificación de la intensidad (o color) de la imagen en un arreglo regular de puntos enel espacio. Los procesos que realiza un sistema de estas características sonprincipalmente los siguientes:a) Proceso de adquisición de imágenes. Generalmente, dichos sistemas están equipados con un sensor visual (cámarasCCD o CMOS) a partir de cuál creamos la instantánea del objeto a investigar. Mediante un proceso eléctrico, la información luminosa obtenida pasará a través la tarjeta de adquisición para, finalmente, almacenarse en el disco duro del computador. La tarjeta de adquisición realiza siempre el proceso de transcribir la información al código binario transformando así, nuestra señal analógica en discreta (o digital). Con la tarjeta de adquisición conseguimos, además, adaptar la imagen a una Figura 5.2. Cámara CCD serie de reglas de normalización. De esta manera, logramosdarle a nuestra imagen un carácter regularizado para que, si deseamos emplearlo en otrosistema compatible con el nuestro, nuestra imagen también sea válida. 1Física de la Visión Jaime Martínez Verdú
  • 146. Tema 5 – Sistemas de adq. de imágenes BLOQUE II: Sistemas de Visión Artificial Con ello, conseguimos eliminar barreras de compatibilidad con otras compañíasde cámaras y demás. Por esta razón entre otras, es por lo que no conectamosdirectamente la cámara a la CPU si no que entre ambas está la tarjeta de adquisiciónpara conseguir así extender el uso de la imagen obtenida.b) Etapa de filtrado o pre-procesado. En algunos sistemas, se incluye también un conjunto accesorios (como es elmonitor analógico) mediante los cuales conocemos los resultados antes de que sealmacenen en el disco duro. Por tanto, si no nos interesa la imagen obtenida (ya sea porun fallo de iluminación, abundancia de ruido u otras razones) la rechazamos antes deemplear memoria de la CPU. Cuando se adquiere una imagen mediante cualquier sistema de captura, amenudo ésta no es utilizable directamente por el sistema de visión. La aparición devariaciones en intensidad debidas al ruido, por deficiencias en la iluminación, o laobtención de imágenes de bajo contraste hace necesario un preproceso de la imagen conel objetivo fundamental de corregir estos problemas, además de aplicar aquellastransformaciones a la imagen que acentúen las características que se deseen extraer delas mismas, de forma que se facilite las operaciones de las etapas posteriores.Pertenecen a este campo las técnicas de transformaciones geométricas, las basadas en elhistograma, el filtrado espacial y el filtrado frecuencial. Aunque existen líneas deinvestigación abiertas, no es el campo más activo en ese sentido, y las técnicasexistentes son bastante útiles para la mayoría de las aplicaciones. Algunas de lastécnicas más habituales son: • Conversión de los niveles de gris: Su objetivo es la mejora de la calidad de la imagen. Se han desarrollado empleando teorías de la psicología visual humana y modelos de los dispositivos físicos de adquisición de imágenes. Su aplicación se centra en el procesamiento con “observador humano”. • Transformaciones geométricas: Los objetivos de éstas son la corrección de la perspectiva y la reconstrucción tridimensional de los objetos de la escena. • Transformación del histograma: Las transformaciones del histograma pueden facilitar la segmentación de objetos de la imagen, aunque habitualmente solo sirve para modificar el contraste de la imagen y el margen dinámico de los niveles de gris. • Filtrado espacial y frecuencial: Dado que pueden suponer una importante modificación de la imagen original, habitualmente solo se consideran filtrados aquellas operaciones realizadas en el dominio espacial o frecuencial que suponen transformaciones pequeñas de la imagen original.c) Etapa de segmentación o aislamiento de objetos de interés. Cuando ya se dispone de la imagen capturada y filtrada, es necesario aislar oseparar los objetos de interés de la escena. Se pretende por tanto dividir una imagen endiferentes regiones o, dicho de otra forma, detectar automáticamente los bordes entre loselementos o regiones. Las operaciones de segmentación de una escena dependen de la propia escena yde la información que se busque dentro de la imagen. 2Física de la Visión Jaime Martínez Verdú
  • 147. Tema 5 – Sistemas de adq. de imágenes BLOQUE II: Sistemas de Visión Artificial Por ejemplo, en fotografía aérea se utiliza para separar regiones pobladas,agrícolas, bosques, aguas, etc. En imagen médica se usa para aislar zonas enfermas delos órganos, o para detectar y contar microorganismos en microscopía. Industrialmente,se usa como primer paso para la medición de piezas, para determinar la correctadisposición del etiquetado de los envases (aislar el envase, aislar la etiqueta, determinarsi la relación entre estos dos objetos es correcta), para la medición de irregularidades ensuperficies homogéneas, para la detección de cambios de texturas, en las que el sistemaha de determinar si es un defecto o no lo es, etc. Las técnicas básicas de segmentaciónse pueden dividir en tres grupos: • Aplicación de umbrales de nivel de gris. • Agrupación por rasgos comunes. • Extracción de bordes. No obstante, la segmentación de imágenes es una temática actual deinvestigación y se han definido numerosos métodos diseñados para aplicacionesparticulares. No obstante, no hay métodos que sean útiles en una amplia variedad desituaciones, por lo que cada problema necesita la adaptación o desarrollo de nuevastécnicas.d) Etapa de extracción y selección de características. Con los objetos a estudiar ya definidos, es necesario extraer una serie demedidas que los caractericen adecuadamente, en forma de vector de características.Como norma general, para la elección de las características se intenta que: • Sean discriminantes, es decir, tengan valores numéricos diferentes para clases diferentes. • Sean fiables, es decir, tengan valores parecidos dentro de una misma clase. • Estén incorreladas, es decir, obtener la misma información con el mínimo número de características. • Se calculen en un tiempo aceptable, de forma que sea utilizable en problemas de tiempo real. Dado que las características relevantes son a menudo desconocidas a priori,habitualmente se introducen muchas características candidatas para intentar representarmejor las clases, aún cuando muchas de ellas puedan ser parcial o completamenteredundantes o irrelevantes. No obstante, existen unas técnicas para mejorar lasprestaciones del conjunto de características escogido inicialmente. Estas estáníntimamente ligadas al reconocimiento de formas en su etapa de diseño del clasificador.e) Etapa reconocimiento de formas e inteligencia artificial. Normalmente, la visión artificial se utiliza para tomar decisiones a partir de lainformación proporcionada por el sistema de adquisición de imágenes y lastransformaciones y operaciones realizadas con ellas. La información extraída se puedeconsiderar como un vector que recoge las características o rasgos diferenciadores de laimagen analizada. En el caso de que se trate de una aplicación de medición, este vectorrecoge todas aquellas medidas que se deseaban obtener. 3Física de la Visión Jaime Martínez Verdú
  • 148. Tema 5 – Sistemas de adq. de imágenes BLOQUE II: Sistemas de Visión Artificial En aplicaciones de inspección y, sobre todo, en aplicaciones de clasificación,este vector es el conjunto de datos con los que ha de trabajar un reconocedor oclasificador encargado de extraer las conclusiones posibles a partir del vector deentrada. Para el diseño del clasificador es necesaria una etapa de selección decaracterísticas y una etapa de aprendizaje o entrenamiento. Generalmente, se usa elpropio clasificador como evaluador del conjunto de características en prueba dado quees el método que proporciona la mayor fiabilidad, aunque sea el más costosotemporalmente y de menor generalidad o capacidad de aplicación del clasificador aotros problemas. Respecto a los métodos clásicos de búsqueda secuencial, actualmenteuno de los campos de investigación abiertos es el uso de algoritmos genéticos para laselección en paralelo de las características. En el reconocimiento de formas aplicado a la visión artificial se utilizan técnicasde reconocimiento geométrico de formas, como el aprendizaje supervisado (se conoce laclase a la que pertenece cada vector) en condiciones estadísticas o algoritmos declasificación no supervisados o clustering y, además, las redes neuronales, siendo éstasúltimas especialmente interesantes por su capacidad de aprendizaje adaptativo. Existennumerosos algoritmos para cada una de estas técnicas y se investiga ampliamente eldesarrollo de nuevos algoritmos e implementaciones hardware de éstos. El problemafundamental de estas técnicas, es que cada una de ellas suele ser la más adecuada paralas características de un tipo específico de problema no conocidas a priori, lo quedificulta la selección de la técnica con la que se desea abordar inicialmente el problema.  Sensor visual   Equipo de adquisición   → Adquisición  Tarjeta de adquisición    Monitor analógico → Pre − procesadoSistema de adqusición    Equipo de procesadoConsola Segmentación      CPU  →  Extracción    Reconocimiento     4Física de la Visión Jaime Martínez Verdú
  • 149. Tema 5 – Sistemas de adq. de imágenes BLOQUE II: Sistemas de Visión Artificial5.2. Sensores de imagen. Los sensores de imagen son componentes sensibles a la luz que modifican suseñal eléctrica en función de la intensidad luminosa que perciben. La tecnología máshabitual en este tipo de sensores es CCD (Charge Coupled Devices o dispositivos deacoplamiento de carga) donde se integra en un mismo chip los elementos fotosensiblesy el conjunto de puertas lógicas y circuitería de control asociada. En éstos, la señaleléctrica que transmiten los fotodiodos es función de la intensidad luminosa quereciben, su espectro, y el tiempo de integración (tiempo durante el cual los fotodiodosson sensibles a la luz incidente). Otra tecnología que está empezando a extenderse son los sensores CMOS(Complementary Metal Oxide Semiconductor) dadas las ventajas de éstos sobre losCCD, y la reducción de precios de estos dispositivos. En cuanto al rango dinámico (rango de amplitud entre los valores máximos ymínimos que un elemento puede producir, medido en decibelios), se pasa de los 70dBde los sensores CCD a los 120 dB de los sensores CMOS, valor más cercano a los 200dB del ojo humano, lo que facilita la autoadaptación en el propio chip al brillo existenteen el entorno, como se puede apreciar en la figura 2.14. El sensor CMOS puedeamplificar de forma individual la respuesta de los píxeles en función de sus respectivascondiciones de iluminación. El acceso multipíxel permite configurar individualmentedistintos intervalos de tiempo de integración, mejorando la calidad de la imagenmediante la selección del mejor tiempo de exposición de cada píxel. (a) (b) Figura 5.3. Diferencia de rango dinámico: (a) sensores CCD; (b) sensores CMOS. Existen diferentes arquitecturas de sensores. En primer lugar están los sensoreslineales. En estos el sensor es una línea de fotodiodos. Esta arquitectura permite lautilización de sensores de 1 × 1024, 1 × 2048, 1 × 4096 e incluso 1 × 6000 píxeles, loque la hace muy adecuada para trabajar con altas resoluciones sobre superficies enmovimiento. Para condiciones de iluminación muy exigentes o velocidades de trabajomuy altas existe la posibilidad del uso de sensores TDI (Time Delay Integrated). Estatecnología consiste en el uso de varias líneas de captura sobre la misma línea del objeto,con el fin de sumar su carga y obtener así una mayor sensibilidad. 5Física de la Visión Jaime Martínez Verdú
  • 150. Tema 5 – Sistemas de adq. de imágenes BLOQUE II: Sistemas de Visión Artificial Píxel (a) (b) (c) Figura 5.4. (a) Frame Transfer; (b) Inter-line Transfer; (c) Frame-Inter-line Transfer. En segundo lugar están los sensores de área. Estos alcanzan resolucioneshabituales de 1024 × 1024, aunque existen en el mercado algunas casas que disponen decámaras especiales con resoluciones de hasta 3072 × 2048. En este caso existen dostecnologías de adquisición de imágenes, entrelazada y no entrelazada. El método entrelazado captura las líneas pares e impares que forman una imagenen instantes de tiempo diferentes. Una vez obtenida la imagen, puede ésta estar formadaa partir de dos formas de campos distintas, dependiendo de la situación de los campos:Campo IMPAR: La imagen esta formada por las líneas impares de píxeles, es decir, elcampo impar es aquel en el cual aparecen los las filas impares de píxeles.Campo PAR: La imagen esta formada por las líneas pares de píxeles, es decir, el campopar es aquel en el cual aparecen los las filas pares de píxeles. Si unimos tanto el campo impar de una imagen como el campo par, obtenemoscomo resultado una imagen entrelazada de ambos, que contiene tanto las líneas (filas)pares como las impares. Figura 5.5. La suma de los campos pares e impares resulta una imagen de ambos campos entrelazados. PAL EIA Frecuencia de imágenes 25 Hz 30 Hz Frecuencia de campos 50 Hz 60 Hz Número de líneas 625 525 Número de columnas 767 647 Número de elementos 768 × 580 756 × 494 Tabla 5.1. Características de los sistemas PAL y EIA. 6Física de la Visión Jaime Martínez Verdú
  • 151. Tema 5 – Sistemas de adq. de imágenes BLOQUE II: Sistemas de Visión Artificial Señal (V) Intensidad de una línea Tiempo Pulsos de Pulsos de sincronismo horizontal sincronismo vertical Figura 5.6. Tensión frente a tiempo en un campo. La tecnología de no entrelazado (progressive scan) captura todas las líneas en elmismo instante de tiempo. Es más costoso económicamente, pero indispensable paratrabajar con objetos en movimiento. Independientemente de la arquitectura utilizada, existen otros aspectosimportantes en estos sensores. La cuantización (conversión Analógica-Digital)determina el número de bits utilizados para representar la información capturada. Porejemplo, usando un sistema blanco y negro de 8 bits tenemos 256 niveles diferentesmientras que, usando un sistema de 10 bits, obtendríamos 1024 niveles de grisdiferentes, lo que permite una mayor definición.5.2.1. Estructura general de los dispositivos CCD y CMOS. Estos dispositivos son muy utilizados dentro del campo del Tratamiento deImágenes a nivel industrial y de investigación puesto que, al ser dispositivoselectrónicos, trabajan en tiempo real aportando eficacia y rapidez al proceso deadquisición. SiO2 Canal n Sustrato de tipo P Figura 5.7. Arquitectura general de un dispositivo fotorreceptor. Puesto que estas cámaras tienen que transformar la información luminosa eneléctrica, disponen de un mecanismo mediante el cual se consigue dicha transformaciónenergética. A partir de unos sensores, la cámara capta la energía luminosa pues éstosactúan como condensadores o elementos capacitivos (tienen la singularidad dealmacenar en ellos tanta energía eléctrica como energía luminosa reciben). Por tanto,estos componentes adquieren energía eléctrica en función de los lúxeles que llegan aellos obteniendo así una imagen digital en escala de grises. Otro sistema es aquel en elque sólo los componentes detectan si están cargados o no lo cual implica que la imagenresultante sea en blanco y negro. 7Física de la Visión Jaime Martínez Verdú
  • 152. Tema 5 – Sistemas de adq. de imágenes BLOQUE II: Sistemas de Visión Artificial5.2.2. Estructura de los dispositivos CCD: Charge Coupled Devices. Este tipo de dispositivo se caracteriza por tener un proceso de detección de luzen el cual el proceso de conversión se realiza cuando prácticamente la señal luminosa harecorrido todo su camino. Los pasos fundamentales que se realizan son los siguientes:• Transfiere la carga de cada píxel secuencialmente a una estructura de salida común.• Se convierte la luz a voltaje mediante un conversor determinado en la salida.• Se envía a la frame grabber. Figura 5.8. Mecanismo de transmisión de información del dispositivo CCD.5.2.3. Estructura de los dispositivos CMOS: Complementary Metal Oxide Semiconductor. Este tipo de dispositivo se caracteriza por tener un proceso de detección de luzen el cual el proceso de conversión se realiza durante el momento de transitar del píxelal píxel contiguo. Los pasos fundamentales que se realizan son los siguientes:• Transfiere la carga de cada píxel secuencialmente a una estructura de salida común.• Se convierte la luz a voltaje mediante un conversor determinado en cada píxel.• Se envía a la frame grabber. Figura 5.9. Mecanismo de transmisión de información del dispositivo CMOS.5.2.4. Dispositivos CCD Vs CMOS. CMOS: tiene una integración mayor, menor disipación y tamaño a expensas deuna menor calidad de imagen y menor flexibilidad. Para grandes volúmenes con pocosrequerimientos de calidad es la opción tecnológica. Sus aplicaciones principales son lascámaras de seguridad, videoconferencias (PC), código de barras, scanners, juguetes,… CCD: tiene una mejor calidad de imágenes y flexibilidad a expensas de unmayor tamaño. Sus aplicaciones son en fotografía digital, high-end imaging,aplicaciones industriales de alta performance, aplicaciones científicas y médicas. 8Física de la Visión Jaime Martínez Verdú
  • 153. Tema 5 – Sistemas de adq. de imágenes BLOQUE II: Sistemas de Visión Artificial5.3. Características de los dispositivos CCD matriciales. A continuación, enunciaremos una serie de características de estos dispositivos:Tiempo de integración: Tiempo necesario para que el sensor se cargue, es decir, tiempodurante el cual los fotodiodos son sensibles a la luz incidente.Tiempo de adquisición: Tiempo que se tarda en llegar la información que ha recogidoel fotorreceptor hasta el lugar en el cual se considera adquirida dicha información.Factor gamma: ¿Cómo nos interesa que sea la respuesta del sensor en relación con elnúmero de fotones que le llegan? Generalmente, nos importa que la proporción entreambas características sea lineal para así poder determinar el voltaje con exactitud. Larelación entre ambas obedece la siguiente ecuación: V (ϑ ) = kϑ γ + φ (1) donde • V, es el voltaje en función de los fotones. • k, es una constante de amplificación. • ϑ , es la cantidad de energía que aportan los fotones. • γ, Es el factor de linealidad. • φ , El ángulo de desfase o desplazamiento. + FOTONES VOLTAJE − Figura 5.10. Relación de voltaje en función de los fotones que actúan sobre el sensor.Sensibilidad absoluta: Se trata el valor mínimo para el cual se comienza a detectar unnivel de intensidad lumínica, es decir, a partir de este límite, el sensor ya es capaz dedetecta la iluminancia que llega a él.Sensibilidad relativa: Con este concepto definimos la diferencia entre cambios deiluminancia, es decir, determina el límite para percibir un cambio de iluminancia de unnivel al siguiente. Para el caso del siguiente ejemplo, tenemos que la sensibilidad absoluta es de 10fotones ya que necesitamos la energía de 10 fotones para empezar a percibiriluminancia. También tenemos que la sensibilidad relativa es de 2 fotones por voltio, esdecir, una vez alcanzados los 10 fotones, para variar un voltio necesitamos incrementaren dos fotones la cantidad total. 9Física de la Visión Jaime Martínez Verdú
  • 154. Tema 5 – Sistemas de adq. de imágenes BLOQUE II: Sistemas de Visión Artificial 6 fotones 4 Voltios 1 Voltios 2 fotones 0 Voltios 10 fotones Figura 5.11. Ejemplo de sensibilidad absoluta y relativa.Relación señal ruido (SNR, del inglés «Signal Noise Ratio»): Este parámetro nosinforma sobre la claridad de la imagen. Si diferenciamos entre imagen útil e imagen conruido, podemos detectar perturbaciones en aquellos objetos no alineados, definiendo asíel ruido. Los cambios de temperatura producen lo que se denomina constante oscura demodo que, una imagen oscura, puede tener puntos blancos debido a la variación detemperatura por lo que la no linealidad produce ruido.Ganancia espectral: No todos los sensores trabajan en todas las longitudes de onda yaque, por ejemplo, los sensores de los dispositivos CCD suelen ser muy sensibles a losrayos infrarrojos. Esto es debido a que cada cámara, en particular, dispone de filtrospara recoger sólo longitudes de onda de una determinada categoría (aquella que nosinterese para la aplicación que estamos ocupando).Multi-net: Un sistema de visión con un número de cámaras determinado 2, 3, 4,…tendrá posibilidades de capturar distintas características en una imagen, es decir, doscámaras CCD son capaces de determinar distancias mientras que una sola es incapaz,por ejemplo.¿Puede existir una cámara CCD que trabaje con 0 lux? La respuesta es afirmativa yaque aunque a la cámara no llegue radiación visible esta puede detectar otro tipo deradiaciones como infrarrojos, ultravioletas,… Ancho (mm) Alto (mm) Diagonal (mm) 1 3,2 2,4 4 4 1 4,8 3,6 6 3 1 6,4 4,8 8 2 2 8,8 6,6 11 3 Tabla 5.2. Características de los dispositivos CCD Matriciales. 10Física de la Visión Jaime Martínez Verdú
  • 155. Tema 5 – Sistemas de adq. de imágenes BLOQUE II: Sistemas de Visión Artificial5.4. Tarjetas de adquisición. Las tarjetas de captura de imagen permiten transferir la imagen de la cámara a lamemoria de ordenador con el fin de que éste pueda realizar el procesamiento adecuado alas imágenes. Aspectos importantes en esta tarjeta son la velocidad de transmisión, elformato de los datos, la profundidad de píxel, la capacidad de captura por disparo, lacapacidad de preprocesado de la imagen, la velocidad de transferencia de la imagen dela memoria de la tarjeta a la memoria del ordenador, el reset asíncrono o la capacidad decontrolar parámetros de la cámara en tiempo real. Evidentemente, todos los datos relativos a velocidades de transmisión sonespecialmente importantes para poder trabajar en tiempo real. Este aspecto ha mejoradonotablemente en los dos últimos años. Otro parámetro que ha evolucionado muyfavorablemente es el formato de los datos. Con la estandarización definitiva de losformatos EIA -644 o LVDS, y del IEEE 1394, se consigue no sólo aumentar lavelocidad de transferencia, sino que también se hace con una mayor inmunidad al ruidoy con longitudes de cableado aceptadas mucho mayores (de 2 – 10 metros a 25 metrosde distancia cámara – tarjeta). La capacidad de sincronizar la captura de las imágenes con una señal externatambién se ha mejorado con el reset asíncrono, lo que habilita el inicio de la captura sintener que esperar el siguiente vertical blank (es decir, sin necesidad de finalizarcompletamente la captura anterior). La capacidad de controlar la cámara con salidas RS-232 de la tarjeta facilita la variación de parámetros de la cámara, fundamentalmente laganancia de los canales RGB, o de ópticas motorizadas en tiempo real. Un aspecto relativamente reciente es la posibilidad de multitap. Existen tarjetascapaces de trabajar con varias cámaras a la vez (hasta 6 cámaras de 8 bits por píxel), ousar los canales de que dispone para trabajar con cámaras multitap que transmiten a lavez varios píxeles por cada uno de los canales. Por ejemplo, a 40 MHz, una tarjetapuede recibir la información por un canal de 8 bits a 40 Mbytes/sec, mientras que si usa2 canales, la información la puede recibir a 80 Mbytes/sec, incrementándose de formaproporcional al número de canales la velocidad de transmisión. En cuanto a la capacidad de proceso de las tarjetas, actualmente prácticamentesolo existe la posibilidad de incorporar un Procesador Digital de Señal (DSP), quepermite realizar determinados algoritmos de análisis de imágenes en la propia memoriade la tarjeta, acelerando la implementación de los algoritmos de visión. El desarrollo demódulos de proceso altamente especializados que poseían casas como ImagingTechnology ha sido abandonado tras la evidencia de la superior evolución enprestaciones de los procesadores convencionales, que hacen que el coste de desarrollode las placas altamente especializadas no sea rentable para las casas fabricantes de lasmisma, al ser estos rápidamente superados por los constantes incrementos en velocidady mejoras internas de los procesadores convencionales. Otro de los recientes elementos en cuanto a las tarjetas de captura de imágeneses la integración de la tarjeta de captura de imágenes, la visualización, y el módulo deproceso en un solo elemento. Estos equipos se proporcionan en un chasis adecuado paratrabajar en entornos industriales. 11Física de la Visión Jaime Martínez Verdú
  • 156. Tema 5 – Sistemas de adq. de imágenes BLOQUE II: Sistemas de Visión Artificial5.4.1. Parámetros principales de una tarjeta de adquisición.Sistema monocromático o color: Este parámetro de la tarjeta de adquisición hacereferencia al tipo de sistema empleado para la captura de la información, es decir, al tipode reglas a seguir para la captura de una imagen en color (sistema color) o con unaúnica tonalidad (sistema monocromático).Tipo de entrada: Este otro parámetro indica el tipo de sistema de imágenes empleadopara la adquisición, o sea, determina si empleamos el sistema RGB, S-VIDEO, el"conector amarillo",…Tipo de bus: Se trata de una característica vinculada con la velocidad del bus,indicándonos tanto velocidad media de circulación como picos de velocidad.Procesamiento propio: Este parámetro sólo lo presentan aquellas tarjetas que se puedenemplear para el procesamiento de forma interna de la imagen antes de sualmacenamiento (permitiendo así realizar modificaciones directamente sobre laimagen). Algunas tarjetas son capaces de trabajar con la imagen a velocidades decomputación cercanas a las de una computadora convencional.Conectividad: Esta es una característica importante de una tarjeta de adquisición puestoque permite realizar varias tareas a la vez, es decir, mientras en un monitor aparece laimagen original, en otro podemos visualizar las modificaciones que le efectuemos.Resolución: Dependiendo de la tarjeta, este parámetro nos indicará el período demuestreo de la señal y también el número de píxeles que obtendremos. El tiempo de muestreo de una señal se puede calcular como la suma del tiempode captura, el tiempo de recorrido de la señal hasta la tarjeta de adquisición y del tiempode procesamiento de la misma: tmuestreo = tcaptura + trecorrido + t procesamiento (3) Mediante el trigger, conseguiremos aprovechar el tiempo de captura para que latarjeta transmita y procese la imagen capturada.Memoria: Hace referencia a la memoria integrada que trae por defecto la tarjeta deadquisición, aspecto que nos podría limitar si la imagen es de dimensionesconsiderables. Dicha capacidad de memoria nos obligará a trabajar con un mayor omenor número de capturas y con imágenes más o menos grandes.Salida: La salida dependerá de cada tarjeta ya que cada compañía tendrá una serie deprotocolos asignados a las salidas y encaminados a diferentes lenguajes computados.Sistema de desarrollo: Cuando tengamos que realizar la tarea de selección de unatarjeta de adquisición hemos de tener muy presente la elección de nuestro lenguaje deprogramación ya que, dependiendo de dicha tarjeta, tendremos comodidades paradeterminados lenguajes de programación. 12Física de la Visión Jaime Martínez Verdú
  • 157. Tema 5 – Sistemas de adq. de imágenes BLOQUE II: Sistemas de Visión Artificial5.4.2. Mecanismo de la ganancia en una tarjeta de adquisición. El método de aprovechamiento de las distintas cámaras CCD consiste en dividirla imagen en función de la escala de grises. El nivel de gris más bajo será el negro y elmás alto, efectivamente, será el blanco. La ganancia irá acorde con la banda dedigitalización. En este tipo de mecanismo, al variar la ganancia y el desplazamiento esposible que aparezca una pérdida de información de niveles bajos o altos. Porconsiguiente, la única solución para no perder información es aumentar la gananciahasta que se ajuste que el nivel máximo y el mínimo de gris y evitemos una pérdida decontraste.¿Depende la resolución de la imagen del modo de muestreo de la señal? Sí, en aquelcaso en el cual la cámara tiene una resolución de, por ejemplo, 512 × 512 pero nuestraseñal no tiene la misma resolución. Si la cámara ha dividido la imagen, la tarjeta quepasa de analógico a digital tiene una resolución de 1.024 y, por tanto, la imagen tendráuna resolución distinta a la imagen capturada. Nivel de blanco Nivel de blanco Nivel de negro Nivel de negro Nivel de blanco Nivel de blanco Nivel de negro Nivel de negro Figura 5.12. La ganancia en la tarjeta de adquisición. 13Física de la Visión Jaime Martínez Verdú
  • 158. Tema 5 – Sistemas de adq. de imágenes BLOQUE II: Sistemas de Visión Artificial5.5. Bibliografía. Tratamiento Digital de Imágenes. Rafael C. González, Richard E. Woods. Visión por Computador, Fundamentos y Métodos. Arturo de la Escalera. 14Física de la Visión Jaime Martínez Verdú
  • 159. Tema 5 – Sistemas de adq. de imágenes BLOQUE II: Sistemas de Visión Artificial Visión por Computador. Javier González Jiménez. 15Física de la Visión Jaime Martínez Verdú
  • 160. BLOQUE II: SISTEMAS DE VISIÓN ARTIFICIAL.TEMA VI: Imágenes digitales.6.1. Modelo de una imagen simple 16.2. Muestreo y cuantificación 26.3. Principales características de las imágenes 5 6.3.1. Brillo, contraste y nitidez 5 a) Brillo 5 b) Contraste 6 c) Nitidez 7 6.3.2. Relaciones básicas entre píxeles 8 a) Vecinos de un píxel 8 b) Conectividad 8 c) Medidas de distancia 96.4. Bibliografía 10
  • 161. Tema 6 – Imágenes digitales BLOQUE II: Sistemas de Visión Artificial6.1. Modelo de una imagen simple. El término imagen se refiere a una función bidimensional de intensidad de luzf(x,y), donde x e y representan las coordenadas espaciales y el valor de f en un puntocualquiera (x,y) es proporcional al nivel de gris de la imagen en ese punto. Figura 6.1 Convenio de ejes utilizado para la representación de imágenes. Para esta asignatura, esta función f(x,y) será discreta puesto que el proceso deobtención de la imagen no es continuo, es decir, se establece un período de muestreo(distancia entre dos mediciones adyacentes) a partir del cual se realiza la obtención deinformación mediante la imagen original. Puesto que la luz es una forma de energía, f(x,y) debe ser estrictamente positivay finita, es decir, 0 ≤ f ( x, y ) < +∞ La naturaleza de dicha función de intensidad de la luz puede estar caracterizadaen dos componentes de modo que la función se puede expresar como el producto deambas: f(x,y) = i(x,y)·r(x,y). Las componentes son las siguientes: 1) Componente de iluminación, i(x,y): La cantidad de luz incidente procedente de la fuente sobre la escena contemplada acotada dentro de valores positivos. La naturaleza de i(x,y) está determinada por la fuente de luz. 0 ≤ i ( x, y ) < +∞ 2) Componente de reflectancia, r(x,y): La cantidad de luz reflejada por los objetos de la escena estando acotada entre 0 y 1. La naturaleza de r(x,y) viene determinada por las características de los objetos de la escena. 0 ≤ r ( x, y ) ≤ 1 1Física de la Visión Jaime Martínez Verdú
  • 162. Tema 6 – Imágenes digitales BLOQUE II: Sistemas de Visión Artificial 6.2. Muestreo y cuantificación. Para ser utilizable para el proceso por medio de computadora, la función debe ser digitalizada tanto espacialmente como en amplitud. La digitalización de las coordenadas espaciales (x,y) se denomina muestreo de la imagen y la digitalización de la amplitud se conoce bajo el nombre de cuantificación del nivel de gris. La imagen real continua f(x,y) se describe de forma aproximada por una serie de muestras equiespaciadas organizadas en forma de una matriz de dimensión N × M (N filas y M columnas), donde cada elemento es una cantidad discreta:  f (0,0 ) f (0,1) L f (0, M − 1)   f (1,0 ) f (1,1) L f (1, M − 1)  f ( x, y ) =   (1)  M M O M     f ( N − 1,0 ) f ( N − 1,1) L f ( N − 1, M − 1) El término de la derecha representa una imagen digital (por ejemplo, la que se obtendría como resultado de la captura de una imagen mediante una cámara digital). A cada elemento de la matriz suele denominársele elemento de la imagen o píxel, del inglés «picture element». El proceso de muestreo puede entenderse como una partición en una cuadrícula del plano xy, siendo las coordenadas de cada elemento de la cuadrícula un par de elementos enteros. Por tanto, f(x,y) representa una imagen digital si el par (x,y) son enteros de Ζ2 y f es una función que asigna un nivel de gris (un número real) a cada par de coordenadas (x,y) distinto. En el proceso de digitalización se necesita tomar decisiones sobre los valores de N, M y de los niveles de gris para cada píxel (estas cantidades suelen ser potencias de 2, es decir, N = 2n M = 2m y G = 2g). Empleando lo dicho anteriormente, tenemos que el número, b, de bits necesarios para almacenar una imagen digitalizada es: b = M ·N · g Número de niveles de gris g 1 2 3 4 5 6 7 8 2 4 8 12 16 20 24 28 32 4 16 32 48 64 80 96 112 128Dimensiones de la matriz 8 64 128 192 256 320 384 448 512 16 256 512 768 1.024 1.280 1.536 1.792 2.048 32 1.024 2.048 3.072 4.096 5.120 6.144 7.168 8.192 64 4.096 8.192 12.288 16.384 20.480 24.576 28.672 32.768 128 16.384 32.768 49.152 65.536 81.920 98.304 114.688 131.072 256 65.536 131.072 196.608 262.144 327.680 393.216 458.752 524.288 512 262.144 524.288 786.432 1.048.576 1.310.720 1.572.864 1.835.008 2.097.152 1.024 1.048.576 2.097.152 3.145.728 4.194.304 5.242.880 6.291.456 7.340.032 8.388.608 Tabla 6.1 Número de bits de almacenamiento para valores de N = M y g. 2 Física de la Visión Jaime Martínez Verdú
  • 163. Tema 6 – Imágenes digitales BLOQUE II: Sistemas de Visión Artificial ¿Qué muestreo y cuántos niveles de gris son necesarios para una buenaaproximación? La resolución (el grado de detalle discernible) de una imagen dependeestrechamente de estos dos parámetros. Cuanto más se incrementan, más se aproxima laimagen digitalizada a la imagen original. Sin embargo, esto implica una desafortunadacircunstancia ya que el almacenamiento y los requisitos de procesamiento crecenrápidamente en función de N, M y g. “Es difícil definir qué es una «buena imagen», puesto que la calidad de la mismano es sólo subjetiva sino que también depende mucho de las necesidades de unaaplicación determinada.” 512 × 512 256 × 256 128 × 128 64 × 64 32 × 32 16 × 16 Figura 6.2 Efectos de reducir la resolución espacial. La Figura 6.2 se puede observar diversas muestras de una imagen digital de unreloj CASIO con 256 niveles de gris y 512 × 512 píxeles. Las siguientes muestran losresultados de reducir la resolución espacial de N = 512 a N = 256, 128, 64, 32 y 16. Puesto que todas las imágenes corresponden a la misma área representada(512 × 512 puntos), los píxeles de las imágenes de menor resolución han sidoduplicados para cubrir toda el área. Esta aplicación de píxeles produce un resultadosimilar a un tablero de ajedrez, que es particularmente visible en las imágenes de menorresolución. Comparando las imágenes de 512 × 512 píxeles con la de 256 × 256 píxeles secomprueba que es virtualmente imposible diferenciarlas. Sin embargo, este efecto esmás visible en la imagen de 64 × 64 y se hace muy pronunciado para las imágenes de32 × 32 y 16 × 16 píxeles. 3Física de la Visión Jaime Martínez Verdú
  • 164. Tema 6 – Imágenes digitales BLOQUE II: Sistemas de Visión Artificial 256 128 64 32 16 8 4 2 Figura 6.3 Efectos de reducir la cantidad de niveles de grises. Esta última figura ilustra los efectos producidos al reducir la cantidad de bitsempleados para representar el número de niveles de gris de una imagen. Las imágeneshan sido obtenidas reduciendo el número de niveles de gris desde g = 7 hasta g = 1,manteniendo constante la resolución espacial en 512 × 512 píxeles. Las imágenes con 256, 128 y 64 niveles de gris son virtualmente idénticas paratodas las aplicaciones prácticas. Sin embargo, esto no es así para la imagen con 32niveles puesto que ha desarrollado un conjunto casi imperceptible de estructurasondulantes en las zonas de niveles de gris suaves. Este efecto, originado por el empleode un número insuficiente de niveles de gris en las zonas más suaves de una imagen, sedenomina falso contorno (bastante visible en las imágenes que emplean menos de 32niveles de gris). 4Física de la Visión Jaime Martínez Verdú
  • 165. Tema 6 – Imágenes digitales BLOQUE II: Sistemas de Visión Artificial6.3. Principales características de las imágenes.6.3.1. Brillo, Contraste y nitidez.a) El brillo. Hace referencia al nivel medio de los niveles de gris, es decir, a la mediaaritmética de la importancia de cada nivel de gris que compone la imagen: L 1 B= N ∑ n ·c i =1 i i (2) donde B es el nivel medio de niveles de gris, N es la cantidad de píxeles, L es lacantidad de niveles de gris en total que presenta la imagen (L = 2, 4, 8, 16, 32, 64, 128 ó256), ni es el nivel de gris i y ci es la cantidad de veces que se ha repetido el nivel i. Veamos el siguiente ejemplo con 8 niveles de gris: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 1 1 1 0 0 1 2 2 2 2 2 2 2 2 2 2 2 1 0 0 1 2 3 3 3 3 3 3 3 3 3 2 1 0 0 1 2 3 4 4 4 4 4 4 4 3 2 1 0 0 1 2 3 4 5 5 5 5 5 4 3 2 1 0 0 1 2 3 4 5 6 6 6 5 4 3 2 1 0 0 1 2 3 4 5 6 7 6 5 4 3 2 1 0 0 1 2 3 4 5 6 6 6 5 4 3 2 1 0 0 1 2 3 4 5 5 5 5 5 4 3 2 1 0 0 1 2 3 4 4 4 4 4 4 4 3 2 1 0 0 1 2 3 3 3 3 3 3 3 3 3 2 1 0 0 1 2 2 2 2 2 2 2 2 2 2 2 1 0 0 1 1 1 1 1 1 1 1 1 1 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 B= 1 [0·56 + 1·48 + 2·40 + 3·32 + 4·24 + 5·16 + 6·8 + 7·1] = 455 = 91 ≈ 2.022 ≈ 2 15·15 225 45 Si pretendemos aumentar el nivel de brillo, tan sólo tendremos que efectuar undesplazamiento del nivel medio de gris que contiene la matriz, es decir, por ejemplo,queremos aumentar el nivel de gris en dos niveles más. Tendríamos la siguiente imagen: 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 3 3 3 3 3 3 3 3 3 3 3 3 3 2 2 3 4 4 4 4 4 4 4 4 4 4 4 3 2 2 3 4 5 5 5 5 5 5 5 5 5 4 3 2 2 3 4 5 6 6 6 6 6 6 6 5 4 3 2 2 3 4 5 6 7 7 7 7 7 6 5 4 3 2 2 3 4 5 6 7 7 7 7 7 6 5 4 3 2 2 3 4 5 6 7 7 7 7 7 6 5 4 3 2 2 3 4 5 6 7 7 7 7 7 6 5 4 3 2 2 3 4 5 6 7 7 7 7 7 6 5 4 3 2 2 3 4 5 6 6 6 6 6 6 6 5 4 3 2 2 3 4 5 5 5 5 5 5 5 5 5 4 3 2 2 3 4 4 4 4 4 4 4 4 4 4 4 3 2 2 3 3 3 3 3 3 3 3 3 3 3 3 3 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 B= 1 [0·0 + 1·0 + 2·56 + 3·48 + 4·40 + 5·32 + 6·24 + 7·25] = 895 = 179 ≈ 3.977 ≈ 4 15·15 225 45 5Física de la Visión Jaime Martínez Verdú
  • 166. Tema 6 – Imágenes digitales BLOQUE II: Sistemas de Visión Artificial Si observamos la matriz resultante de elevar el nivel de gris en dos unidades,podemos ver que si añadimos dos unidades al seis o al siete, no se obtiene un nivel degris 9 y 8 respectivamente, sino que el máximo valor de nivel de gris en el ejemplo es 7. Figura 6.4 Resultado de aumentar el brillo en una imagen.b) El contraste. Hace referencia la diferencia de niveles de gris que existe entre dos píxeles oentre dos regiones de píxeles: 1 1 1 1 1 En el ejemplo de la izquierda se puede observar que puede haber 1 1 0 1 1diferencia de nivel de gris entre dos píxeles vecinos o entre dos grupos de 1 0 1 0 1 1 1 0 1 1píxeles. Además, podemos apreciar que el contraste será mayor cuanto mayor 1 1 1 1 1sea la diferencia entre niveles de gris, es decir, el contraste entre 1 y 7 es 1 1 1 1 1 7 7 7 7 7mayor que entre 0 y 1. Mayor brillo pero Mayor contraste pero Original igual contraste manteniendo el orden 2 9 2 192 199 192 2 19 2 2 9 2 192 199 192 2 19 2 Figura 6.5 Resultado de aumentar el contraste en una imagen. 6Física de la Visión Jaime Martínez Verdú
  • 167. Tema 6 – Imágenes digitales BLOQUE II: Sistemas de Visión Artificialc) La nitidez Hace referencia la brusquedad del contraste, es decir, la nitidez alude a cuán sonde bruscos los cambios de niveles de gris entre píxeles: A A 0 0 0 0 0 0 0 … 0 255 0 … 0 0 0 0 0 0 0 SECCIÓN A-A B B 0 … 0 32 64 128 255 128 64 32 0 … 0 SECCIÓN B-B Figura 6.6 Secciones de una imagen con fondo oscuro una línea blanca diferenciadas por la nitidez. Tal y como se puede observar en las secciones A-A y B-B, podemos decir quecuanto mayor sea la pendiente de los bordes o detalles, mayor nitidez tendrá la imagenhasta el caso límite de una pendiente vertical cuando se trata de una imagen binaria casopara el cual la nitidez es máxima. Figura 6.7 Resultado de disminuir nitidez en una imagen. 7Física de la Visión Jaime Martínez Verdú
  • 168. Tema 6 – Imágenes digitales BLOQUE II: Sistemas de Visión Artificial6.3.2. Relaciones básicas entre píxeles.a) Vecinos de un píxel. Un píxel p de coordenadas (x,y) tiene cuatro vecinos horizontales y verticalescuyas coordenadas viene dadas por: (x + 1, y ), (x − 1, y ), (x, y + 1), (x, y − 1) (3) Este conjunto de píxeles, denominado los 4-vecinos de p, se representa porN4(p). Cada píxel está a una unidad de distancia de p, y algunos de los vecinos de ppueden caer fuera de la imagen digital si (x, y) está en el borde de la imagen. Un píxel p de coordenadas (x,y) también tiene cuatro vecinos diagonales cuyascoordenadas viene dadas por: (x + 1, y + 1), (x + 1, y − 1), (x − 1, y + 1), (x − 1, y − 1) (4) y se representan por ND(p). Estos puntos, junto a los 4-vecinos, se denominan los8-vecinos de p, y se representan por N8(p) – N8(p) = N4(p)∪ ND(p) -. Algunos de losvecinos de p pueden caer fuera de la imagen digital si (x, y) está en el borde de laimagen. 0 1 0 1 0 1 1 1 1 1 2 1 0 2 0 1 2 1 0 1 0 1 0 1 1 1 1 Figura 6.8. Conexiones: (a) 4-vecinos; (b) Vecinos diagonales; (c) 8-vecinos.b) Conectividad. Este concepto es importante puesto que es empleado para establecer límites entreobjetos y los componentes de áreas de una imagen. Para determinar si dos píxeles estánconectados, debe determinarse si son adyacentes en algún sentido (como ser 8-vecinos)y si sus niveles de gris cumplen un criterio especificado de similitud. Por ejemplo, enuna imagen binaria, dos píxeles pueden ser 4-vecinos pero no estar conectados a menosque tengan el mismo valor. Se consideran tres tipos de conectividades: a) 4-conectividad: Dos píxeles p y q con valores dentro de V están 4-conectadossi q pertenece a N4(p). b) 8-conectividad: Dos píxeles p y q con valores dentro de V están 8-conectadossi q pertenece a N8(p). c) m-conectividad (conectividad mixta): Dos píxeles p y q con valores dentro deV están m-conectados si: i) q pertenece a N4(p), o bien ii) q pertenece a ND(p) y además el conjunto N4(p)∩N4(q) es vacío. 8Física de la Visión Jaime Martínez Verdú
  • 169. Tema 6 – Imágenes digitales BLOQUE II: Sistemas de Visión ArtificialFigura 6.9 (a) Distribución de píxeles; (b) 8-vecinos del píxel central; (c) m-vecinos del mismo píxel. Las líneas a trazos son caminos entre ese píxel y sus vecinos.c) Medidas de distancia. Para los píxeles p, q y z, de coordenadas (x,y), (s,t) y (u,v) respectivamente, D esuna función distancia o una métrica si: a) D(p,q) ≥ 0 D(p,q) = 0 si y sólo si p = q. b) D(p,q) = D(q,p). c) D(p,z)≤ D(p,q)+ D(q,z). La distancia euclídea entre p y q está definida por 8 5 2 5 8 De ( p, q ) = (x − s )2 + ( y − t )2 (5) 5 2 1 2 5 Para esta medida de distancia, los píxeles que están a 2 1 0 1 2 una distancia menor o igual que algún valor r de (x,y) son los 5 2 1 2 5 puntos contenidos en un círculo de radio r con centro en (x,y). 8 5 2 5 8 La distancia «city block» o Manhattan entre dos puntos p y q se define como: D4 ( p, q ) = x − s + y − t (6)4 3 2 3 43 2 1 2 3 En este caso, los píxeles que estén a una distancia, de (x,y), menor o igual que un determinado valor r forman un rombo centrado2 1 0 1 2 en (x,y). Por ejemplo, los píxeles de distancia D4 = 1 son los 4-3 2 1 2 3 vecinos de (x,y) y los de distancia 2 forman un contorno con forma4 3 2 3 4 de rombo. La distancia tablero de ajedrez entre dos puntos p y q se define como: D8 ( p, q ) = máx( x − s , y − t ) (7)2 2 2 2 22 1 1 1 2 En este caso, los píxeles que estén a una distancia, de (x,y), menor o igual que un determinado valor r forman un cuadrado2 1 0 1 2 centrado en (x,y). Por ejemplo, los píxeles de distancia D8 = 1 son2 1 1 1 2 los 8-vecinos de (x,y) y los de distancia 2 forman un contorno con2 2 2 2 2 forma de cuadrado. 9Física de la Visión Jaime Martínez Verdú
  • 170. Tema 6 – Imágenes digitales BLOQUE II: Sistemas de Visión Artificial6.4. Bibliografía. Tratamiento Digital de Imágenes. Rafael C. González, Richard E. Woods. Visión por Computador. Gonzalo Pajares, Jesús M. de La Cruz. 10Física de la Visión Jaime Martínez Verdú
  • 171. BLOQUE II: SISTEMAS DE VISIÓN ARTIFICIAL.TEMA VII: Procesamiento básico de imágenes.7.1. Operaciones Aritmético / Lógicas 1 7.1.1. Operaciones Aritméticas 1 a) Adición 1 b) Sustracción 2 c) Multiplicación 3 d) División 3 7.1.2. Operaciones Lógicas 77.2. Operaciones basadas en Mapas de Transición 87.3. Procesado mediante técnicas de Histogramas 19 7.3.1. El histograma como una función de distribución 19 7.3.2. Ecualización del histograma 20 7.3.3. Especificación del histograma 227.4. Operaciones Geométricas 26 7.4.1. Operación de Traslación 26 7.4.2. Operación de Escalado 26 7.4.3. Operación de Rotación 277.5. Operaciones Morfológicas 29 7.5.1. Fundamentos de las operaciones morfológicas 29 7.5.2. Definiciones elementales 30 7.5.3. Operaciones morfológicas I: La dilatación 31 7.5.4. Operaciones morfológicas II: La erosión 33 7.5.5. Operaciones morfológicas III: Apertura y Cierre 34 7.5.6. Operaciones morfológicas con escalas de grises 36 7.5.7. Algunas aplicaciones de la morfología en imágenes de grises 377.6. Eliminación del ruido en el dominio espacial 38 7.6.1. Tipos de ruido 38 a) Gaussiano 38 b) Uniforme 39 c) Impulsivo 39 d) Rayleigh 39 e) Exponencial negativo 40 f) Gamma 40 7.6.2. Filtros de orden 41 a) Mediana 41 b) Moda 42 c) Mínimo 43 d) Máximo 44 e) Punto medio 45 f) Alfa recortado 46
  • 172. 7.6.3. Filtros de media 48 a) Aritmética 48 b) Geométrica 49 c) Armónica 50 d) Contra-armónica 51 e) YP 527.7. Bibliografía 17
  • 173. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial7.1. Operaciones Aritmético / Lógicas. Este tipo de operaciones está contenido dentro de las Transformaciones devarias imágenes Punto a Punto, denominadas comúnmente Operaciones Puntuales. Seutiliza la información contenida en la misma localización (posición de los píxeles) delas imágenes de entrada f1(x,y), f2(x,y),… fn(x,y) para crear una nueva imagen resultadof(x,y)Res. De las operaciones que se realizan entre píxeles vamos a analizar la adición,sustracción, multiplicación y división.7.1.1. Operaciones Aritméticas. a) Adición. La adición puede emplearse para reducir los efectos del ruido en la imagen (1) opara aumentar la cantidad de brillo de una imagen (2). El valor de salida está dado por, n S x , y = ∑ p x, y i (1) i =1 n S x, y = ∑ p x , y i + c (2) i =1 donde la variable px,yi hace referencia al píxel de coordenadas (x,y) de la imageni-ésima y c es una constante definida por el usuario. Los valores finales de salida debenredondearse por exceso o por defecto y si la suma resulta un valor mayor a 255,directamente actualizaremos dicho píxel a 255. Si pensamos en la suma como herramienta de atenuación de ruido, podemosdiseñar una estrategia de eliminación de ruido empleando la media aritmética, es decir, 1 n S x, y = ∑ px, y i n i=1 (3) donde n es la cantidad de imágenes que sumamos y la variable px,yi hacereferencia al píxel de coordenadas (x,y) de la imagen i-ésima. Tal y como se puedeintuir, empleando el promedio de imágenes podemos ser capaces de disminuir o atenuarel ruido de una imagen hasta casi su desaparición. En el siguiente ejemplo sumamos una gran cantidad de imágenes iguales en lascuales aparecen ruidos repartidos aleatoriamente. Aplicando la suma promediadaconseguiremos atenuar el ruido de las mismas: + + ····· + = Figura 7.1 Resultado del empleo de la adición para la atenuación de ruido. 1Física de la Visión Jaime Martínez Verdú
  • 174. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial b) Sustracción. La sustracción en imágenes es una técnica útil para detectar el cambio producidoen dos imágenes que han sido capturadas en dos instantes de tiempo diferentes (4).También pueden representar pérdidas de calor o frío si la fuente de datos es el espectroinfrarrojo. O también, para disminuir la cantidad de brillo de una imagen (5). El valor de salida está dado por, n Rx , y = p x , y1 − ∑ p x , y i (4) i=2 n Rx , y = ∑ p x , y i − c (5) i =1 donde la variable px,yi hace referencia al píxel de coordenadas (x,y) de la imageni-ésima y c es una constante definida por el usuario. Es necesario definir la salida dealguna manera que haga todos los valores positivos. Podemos tomar como regla generalque cualquier resultado de restar dos píxeles debe estar entre 0 y 255, por lo que si enalguna resta se obtiene un valor por debajo de cero directamente actualizamos a cero. (a) (b) (c) Figura 7.2. Uso de la resta: (a) Radiancia antes de energizar; (b) Radiancia después de energizar; (c) Resta de ambas imágenes. 2Física de la Visión Jaime Martínez Verdú
  • 175. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial c) Multiplicación. La multiplicación de imágenes podría utilizarse para corregir efectos de unamala iluminación puesto que, con esta operación, multiplicamos por una constante elnivel de gris de cada píxel de la imagen (de igual modo podríamos usarlo para disminuirlos niveles de gris). El valor de salida está dado por, n M x , y = ∑ c· p x , y i (6) i =2 En el siguiente ejemplo podemos observar que es posible mejorar una imagenmuy oscura. Por tanto, para casos de defecto de iluminación es conveniente realizar unaoperación de multiplicación para contrarrestar dichos efectos negativos. Figura 7.3. Empleo de la multiplicación para la contrarrestar una mala iluminación. d) División. La división de imágenes podría utilizarse para poder discernir entre dosimágenes distintas puesto que, con esta operación, dividimos elemento a elemento elnivel de gris de cada píxel de la imagen. Con ello conseguimos que el píxel de laimagen resultante sea uno cuando coinciden y distinto de la unidad cuando nocoincidan. La imagen final sería aquella en la que los términos distintos a la unidad semultipliquen por 0. El valor de salida está dado por,  ax, y  255 Si =1  bx , y Dx , y = (7) k · a x , y Si a x , y < 1  bx , y bx , y  Figura 7.4. Empleo de la división para la detección de cambios entre imágenes. 3Física de la Visión Jaime Martínez Verdú
  • 176. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial Código implementado utilizando MatLAB: function suma( A , B ) [ f c ] = size( A ); C = zeros( f , c ); for i = 1 : 1 : c for j = 1 : 1 : f if ( A( i , j ) + B( i , j ) < 255 ) C( i , j ) = A( i , j ) + B( i , j ); else C( i , j ) = 255; end end end return function sumapromedio( A ) [ f c n ] = size( A ); B = zeros( f, c ); for i = 1 : 1 : c for j = 1 : 1 : f B( i , j ) = 0; for k = 1 : 1 : n B( i , j ) = A( i , j , k ) + B( i , j ); end B( i , j ) = B( i , j ) / n; end end return function sumabrillo( A , b ) [ f c ] = size( A ); B = zeros( size( A ) ); for i = 1 : 1 : c for j = 1 : 1 : f if ( A( i , j ) + b < 255 ) C( i , j ) = A( i , j ) + b; else C( i , j ) = 255; end end end 4Física de la Visión Jaime Martínez Verdú
  • 177. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial function multiplica ( A , b ) [ f c ] = size( A ); B = zeros( size( A ) ); for i = 1 : 1 : c for j = 1 : 1 : f if ( A( i , j )*b < 255 ) B( i , j ) = A( i , j )*b; else C( i , j ) = 255; end end end return function resta( A , B ) [ f c ] = size( A ); C = zeros( size( A ) ); for i = 1 : 1 : c for j = 1 : 1 : f if ( A( i , j ) − B( i , j ) > 0 ) C( i , j ) = A( i , j ) − B( i , j ); else C( i , j ) = 0; end end end return function restabrillo( A , b ) [ f c ] = size(A ); B = zeros( size( A ) ); for i = 1 : 1 : c for j = 1 : 1 : f if ( A( i , j ) − b > 0 ) B( i , j ) = A( i , j ) − b; else C( i , j ) = 0; end end end return 5Física de la Visión Jaime Martínez Verdú
  • 178. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial function division( A , B ) [ f c ] = size( A ); C = zeros( size( A ) ); for i = 1 : 1 : c for j = 1 : 1 : f if (A( i , j ) / B( i , j ) == 1) C( i , j ) = 255; else C( i , j ) = round( 100*A( i , j ) / B( i , j ) ); end end end return 6Física de la Visión Jaime Martínez Verdú
  • 179. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial7.1.2. Operaciones Lógicas. Con el proceso de binarización conseguimos obtener una imagen de salida queposee únicamente dos niveles de gris 0 y 255. Si consideramos estos dos niveles comoel 0 lógico y el 1 lógico, respectivamente, obtenemos finalmente una imagen binarialógica. Con una imagen de estas características es posible realizar sobre ella todo tipo deoperaciones lógicas como pueden ser la operación AND, OR, XOR y NOT. (a) (b) (c) (e) (f) (g) Figura 7.5. Operaciones Lógicas: (a) Imagen A; (b) Imagen B; (c) NOT a la imagen B;(d) AND de ambas imágenes; (e) OR de ambas imágenes; (f) XOR de ambas imágenes. También es posible realizar sobre dos imágenes dadas otro tipo de operacionestales como <, ≤, >, ≥,… Por ejemplo, dadas dos imágenes A y B obtener una tercera Ctal que C = A ≤ B. 7Física de la Visión Jaime Martínez Verdú
  • 180. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial Código implementado utilizando MatLAB: function and( A , B ) [ f c ] = size(A); C = zeros( size( A ) ); for i = 1 : 1 : c for j = 1 : 1 : f if ( ( A( i , j ) == 255 ) & ( B( i , j ) == 255 ) ) C( i , j ) = 255; else C( i , j ) = 0; end end end return function or( A , B ) [ f c ] = size(A); C = zeros( size( A ) ); for i = 1 : 1 : c for j = 1 : 1 : f if ( ( A( i , j ) == 255 ) | ( B( i , j ) == 255 ) ) C( i , j ) = 255; else C( i , j ) = 0; end end end return function xor( A , B ) [ f c ] = size(A); C = zeros( size( A ) ); for i = 1 : 1 : c for j = 1 : 1 : f if ( ( A( i , j ) == 255 ) xor ( B( i , j ) == 255 ) ) C( i , j ) = 255; else C( i , j ) = 0; end end end return 8Física de la Visión Jaime Martínez Verdú
  • 181. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial function not( A ) [ f c ] = size(A); C = zeros( size( A ) ); for i = 1 : 1 : c for j = 1 : 1 : f if ( A( i , j ) == 255 ) C( i , j ) = 0; else C( i , j ) = 255; end end end return 9Física de la Visión Jaime Martínez Verdú
  • 182. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial7.2. Operaciones basadas en Mapas de Transición. Las operaciones basadas en mapas de transición implican la generación de unanueva imagen modificando el valor del píxel original basándose en una regla globalaplicada a cada píxel de la imagen de entrada, es decir, el proceso consiste en obtener elvalor del píxel de una imagen origen, modificarlo por una operación lineal o no lineal, ycolocar el nuevo valor del píxel en su correspondiente localización dentro de la imagendestino. El mapa de transición es una transformación uno a uno puesto que el operadorψ se aplica a cada píxel en la imagen y la salida depende únicamente de la magnitudcorrespondiente al píxel de entrada siendo independiente de los píxeles adyacentes.Durante esta parte del análisis de mapas de transición trabajaremos con imágenes convalores de gris en el rango de 0 a 255. En una imagen podemos distinguir tres zonas: • Zona de puntos oscuros (A): En esta zona está implícita la información del fondo de la imagen. • Zona de puntos claros (C): Al igual que en la zona anterior, también esta contenida la información del fondo de la imagen. • Zona de puntos intermedios (B): Esta zona, por otro lado, recoge toda la información del objeto que estamos analizando. Observando las gráficas podemos intuir que cuanto mayor sea la pendiente de larecta, tendremos un contraste mayor puesto el hecho de que la pendiente sea mayor,implica que los niveles de gris estén más juntos, por lo que el salto de uno a otro es másalto (misma altura pero menor incremento horizontal). y ψc A B C ψb γ β ψa α a b c x Figura 7.6. Mapa de transición con zonas A, B y C definidas. Transiciones de tipo Clipping: En este tipo de transiciones se eliminan losniveles de gris pertenecientes al fondo (grupo de niveles altos y de niveles bajos)inhibiendo así el contraste del fondo para poder aumentárselo al objeto. Transiciones de umbralización: Este tipo de mapa de transición es empleandopara imágenes donde el fondo tiene un nivel de gris constante (por ejemplo, el fondo escompletamente negro) y por tanto, aumentamos el contraste del objeto en detrimento delfondo. Transiciones no lineales: Generalmente, estos mapas son empleados pararealzar los niveles de gris más significativos de la imagen dando así a la imagen unaspecto apto para el análisis en determinados casos como por ejemplo para la utilizaciónde la Transformada de Fourier. 10Física de la Visión Jaime Martínez Verdú
  • 183. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial Los mapas de transición más utilizados hoy en día en el tratamiento digital deimágenes son los siguientes: a) Operador Identidad. Este operador crea una imagen de salida que es idéntica a la imagen de entrada.La función de transformación es: q= p (8) b) Operador Inverso o Negativo. Este operador crea una imagen de salida que es la inversa de la imagen deentrada (utilizado en diversas aplicaciones tales como imágenes médicas). La función detransformación es: q = 255 − p (9) c) Operador Umbral. Este operador crea una imagen de salida binaria a partir de una imagen de grises,donde el nivel de transición está dado por el parámetro c. La función de transformaciónes: 0 para p ≤ c q= (10) 255 para p > c d) Operador Umbral invertido. Este operador crea una imagen de salida binaria invertida a partir de una imagende grises, donde el nivel de transición está dado por el parámetro c. La función detransformación es: 255 para p ≤ c q= (11) 0 para p > c e) Operador Intervalo de Umbral binario. Esta clase de transformación crea una imagen de salida binaria a partir de unaimagen de grises, donde todos los valores de gris cuyo nivel está en el intervalo definidopor p1 y p2 son transformados a 255 y todos los valores fuera de ese intervalo a 0. Lafunción de transformación es: 255 para p1 ≤ p ≤ p2 q= (12) 0 para p < p1 o p > p2 11Física de la Visión Jaime Martínez Verdú
  • 184. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial f) Operador Intervalo de Umbral binario invertido. Esta clase de transformación crea una imagen de salida binaria a partir de unaimagen de grises, donde todos los valores de gris cuyo nivel está en el intervalo definidopor p1 y p2 son transformados a 0 y todos los valores fuera de ese intervalo a 255. Lafunción de transformación es: 0 para p1 ≤ p ≤ p2 q= (13) 255 para p < p1 o p > p2 g) Operador de Umbral de escala de grises. Esta clase de transformación crea una imagen de salida con los únicos valores denivel de gris comprendidos en el intervalo definido por p1 y p2 y el resto a 255. Lafunción de transformación es: p para p1 ≤ p ≤ p2 q= (14) 255 para p < p1 o p > p 2 h) Operador de Umbral de escala de grises invertido. Esta clase de transformación crea una imagen de salida con los únicos valores denivel de gris invertidos comprendidos en el intervalo definido por p1 y p2 y el resto a255. La función de transformación es:  255 − p para p1 ≤ p ≤ p2 q= (15) 255 para p ≤ p1 o p ≥ p2 i) Operador de extensión. Esta clase de operadores proporciona una imagen de salida con la escala degrises completa correspondiente al intervalo de entrada definido por p1 y p2 y suprimetodos los valores fuera de este rango. La función de transformación es:   ( p − p1 ) 255 para p1 ≤ p ≤ p2 q= p2 − p1 (16) 0 para p ≤ p1 o p ≥ p2  j) Operador reducción de niveles de gris. Esta clase de operadores proporciona una imagen de salida con un menornúmero de niveles de gris respecto de la imagen original de entrada.. La función detransformación es: 0 para p ≤ p1 q para p1 < p ≤ p2  q= 1 (17) M M  qn  para pn −1 < p ≤ 255 12Física de la Visión Jaime Martínez Verdú
  • 185. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial k) Mapa de transición logarítmico. Esta clase de operadores proporciona una imagen de salida con el mismo nivelde gris pero les da una "importancia" distinta ya que los niveles se reparten mediante elcriterio logarítmico de las décadas. La función de transformación es: q = C log (1 + q ) (18) donde C es una constante adecuada de reescalado de la imagen, que se aplicapara obtener valores dentro de la paleta de colores disponible. l) Mapa de transición exponencial. Esta clase de operadores proporciona una imagen de salida con el mismo nivelde gris pero les da una "importancia" distinta ya que los niveles se reparten mediante elcriterio exponencial. La función de transformación es: ( q = C eq − 1 2 ) (19) donde C es una constante adecuada de reescalado de la imagen, que se aplicapara obtener valores dentro de la paleta de colores disponible. En cuanto a la representación gráfica de los mapas de transición, podemos decirque éstos son curvas en el plano xy (espacio bidimensional) donde la variable x hacereferencia a al nivel de la imagen origen (o inicial) mientras que la otra variable yidentifica a los niveles de gris de la imagen destino (o final). Puesto que la derivada de una función nos indica la máxima variación, laderivada de un mapa de transición describe el carácter del contraste (recordemos que elcontraste definía la diferencia de niveles de gris en una imagen). Para el caso particularde un mapa de transición con forma de recta tenemos que la pendiente tg(α) de dicharecta nos informa de manera directa como es el contraste. y y Nivel de gris de la imagen de Ls Ls α entrada Ls x x Le Nivel de gris de la imagen de entrada Le Figura 7.7. Forma generalizada de un mapa de transición. 13Física de la Visión Jaime Martínez Verdú
  • 186. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial q q q q255 255 255 255 0 255 p 0 255 p 0 c 255 p 0 c 255 p q q q q255 255 255 255 0 p1 p2 255 p 0 p1 p2 255 p 0 p1 p2 255 p 0 p1 p2 255 p q q q q 255255 qn −1 255 255 q2 q1 0 p1 p2 p3 pn −1255 p 0 p1 p2 255 p 0 p1 p2 255 p 0 p1 p2 255 p Figura 7.8. Mapas de transición y sus respectivas imágenes. ¡¡¡¡¡¡¡NO HE PODIDO PONER UNA IMAGEN PARA CADA MAPA!!!!!!! 14Física de la Visión Jaime Martínez Verdú
  • 187. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial Código implementado utilizando MatLAB: function operador_identidad( A ) [ f c ] = size(A); B = zeros(size(A)); for i = 1 : 1 : c for j = 1 : 1 : f B( i , j ) = A( i , j ); end end return function operador_invertido( A ) [ f c ] = size(A); B = zeros(size(A)); for i = 1 : 1 : c for j = 1 : 1 : f B( i , j ) = 255 − A( i , j ); end end return function operador_umbral( A , u ) [ f c ] = size(A); B = zeros(size(A)); for i = 1 : 1 : c for j = 1 : 1 : f if (A( i , j ) < u) C( i , j ) = 0; else C( i , j ) = 255; end end end return function operador_umbral_invertido( A , u ) [ f c ] = size(A); B = zeros(size(A)); for i = 1 : 1 : c for j = 1 : 1 : f if (A( i , j ) < u) C( i , j ) = 255; else C( i , j ) = 0; end end end return 15Física de la Visión Jaime Martínez Verdú
  • 188. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial function operador_umbral_binario( A , Linf, Lsup ) [ f c ] = size(A); B = zeros(size(A)); for i = 1 : 1 : c for j = 1 : 1 : f if ( ( A( i , j ) < Lsup ) & ( A( i , j ) > Linf )) C( i , j ) = 255; else C( i , j ) = 0; end end end return function operador_umbral_binario_invertido( A , Linf, Lsup ) [ f c ] = size(A); B = zeros(size(A)); for i = 1 : 1 : c for j = 1 : 1 : f if ( ( A( i , j ) < Lsup ) & ( A( i , j ) > Linf )) C( i , j ) = 0; else C( i , j ) = 255; end end end return function operador_umbral_grises( A , Linf, Lsup ) [ f c ] = size(A); B = zeros(size(A)); for i = 1 : 1 : c for j = 1 : 1 : f if ( ( A( i , j ) < Lsup ) & ( A( i , j ) > Linf )) C( i , j ) = A( i , j ); else C( i , j ) = 255; end end end 16Física de la Visión Jaime Martínez Verdú
  • 189. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial function operador_umbral_grises_invertido( A , Linf, Lsup ) [ f c ] = size(A); B = zeros(size(A)); for i = 1 : 1 : c for j = 1 : 1 : f if ( ( A( i , j ) < Lsup ) & ( A( i , j ) > Linf )) C( i , j ) = 255 − A( i , j ); else C( i , j ) = 255; end end end return function operador_extensión( A , Linf, Lsup ) [ f c ] = size(A); B = zeros(size(A)); for i = 1 : 1 : c for j = 1 : 1 : f if ( ( A( i , j ) < Lsup ) & ( A( i , j ) > Linf )) C( i , j ) = 255*( A( i , j ) − Lsup ) / ( Linf − Lsup ); else C( i , j ) = 0; end end end return function operador_escala_grises( A , valores ) [ f c ] = size(A); B = zeros(size(A)); [ n m ] = size( valores ); for i = 1 : 1 : c for j = 1 : 1 : f for k = 1 : 1 : m − 1 if ( ( A( i , j ) < valores( 1 , k ) ) & ( A( i , j ) > valores( 1 , k + 1 ))) C( i , j ) = valores( 2 , k ); end end end end return 17Física de la Visión Jaime Martínez Verdú
  • 190. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial function operador_logaritmico( A , k ) [ f c ] = size(A); B = zeros(size(A)); [ n m ] = size( valores ); for i = 1 : 1 : c for j = 1 : 1 : f C( i , j ) = k*log(1 + A( i , j ) ); end end return function operador_esxponencial( A , k ) [ f c ] = size(A); B = zeros(size(A)); [ n m ] = size( valores ); for i = 1 : 1 : c for j = 1 : 1 : f C( i , j ) = k*exp( A( i , j )^2 − 1); end end return 18Física de la Visión Jaime Martínez Verdú
  • 191. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial7.3. Procesado mediante técnicas de Histogramas. ¿Cómo calcular un mapa de transición? Como ya hemos podido observar, unaprimera aproximación a lo que va a ser el mapa de transición que estamos buscando esaquel que aumente el contraste en la zona oscura (es decir, la zona que hace referenciaal fondo) pues la información que estamos analizando no reside en el fondo sino queestá en el objeto que estemos considerando.7.3.1. El histograma como una función de distribución. Una técnica muy común para el tratamiento de las imágenes y así estudiarlas, esaquella basada en el procesado mediante histogramas. Un histograma se define como lafunción de distribución de los niveles de gris que existe en la imagen. Es decir, se tratade una función cuya variable x se corresponde con uno de los 255 niveles de gris y lafunción y es justo el número de puntos que tiene ese nivel de gris en concreto. Porejemplo, imaginemos una imagen con 8 niveles de gris cuya distribución es la siguiente: Nivel 0 1 2 3 4 5 6 7 Número de píxeles 3.160 4.092 3.400 2.624 1.316 980 488 324 Puesto que es una función de probabilidad, debemos calcular el número total depíxeles y determinar así, para cada nivel de gris, la probabilidad de encontrar un píxelcon un determinado nivel de gris. Sabiendo que el número total de píxeles para esta imagen de 128 × 128 es de16.384 píxeles, sabemos que la probabilidad de encontrar un píxel que tenga un nivel degris i es justo la cantidad de píxeles que tiene nivel de gris i entre el número total: P(N 0 ) = P ( N1 ) = 3.160 4.092 = 0,193 = 0,250 16.384 16.384 P(N 2 ) = P(N 3 ) = 3.400 2.624 = 0,208 = 0,160 16.384 16.384 P(N 4 ) = P(N5 ) = 1.316 980 = 0,080 = 0,060 16.384 16.384 P(N 6 ) = P(N 7 ) = 488 324 = 0,030 = 0,020 16.384 16.384 Histograma 0,250 0,200 Probabilidad 0,150 0,100 0,050 0,000 0 1 2 3 4 5 6 7 Nivel de gris Figura 7.9. Histograma del ejemplo. 19Física de la Visión Jaime Martínez Verdú
  • 192. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial Sabiendo la forma del histograma, aunque no dispongamos de la imagen encuestión, seremos capaces de distinguir objetos o entes del fondo, puesto que midiendola anchura de las bandas que puedan aparecer en el histograma podremos tomardecisiones al respecto. El criterio a seguir es el siguiente: Fondo Zonas del histograma más estrechas. Esto se puede deducir de maneraintuitiva pensando que las zonas más estrechas de histograma son aquellas en las cualesexiste un menor contraste puesto es en el fondo donde se producen las variaciones máspequeñas entre niveles de gris (el fondo suele tener grises muy parecidos). Objeto Zonas del histograma más anchas. De igual modo al caso anterior,podemos pensar que la razón par la cual al objeto le corresponden los mayorescontrastes puesto que en el objeto se produce un "salto" de contraste y porque losobjetos suelen tener detalles provocando cambios de nivel de gris. Fondo Hombre con la cámara Figura 7.10. (a) Imagen en escala de grises de 32; (b) Histograma definido. Como conclusión, podemos decir que los histogramas se emplean con laintención de mejorar el contraste, de modo que, mediante un proceso usandohistogramas, conseguimos diferenciar más cada nivel de gris de los demás incrementadoasí el contraste. Este proceso de igualación normalizada se conoce con el nombre deecualización de histogramas.7.3.2. Ecualización del Histograma. Supongamos que la transformación que estamos estudiando es s = T (r) siendo run valor de nivel de gris en la imagen original y s su valor en la imagen ecualizada.Entonces el primer objetivo será que el rango dinámico de los valores de s sea almáximo posible, lo que en condiciones de pantallas normales significa [ 0 , 255 ]. Para que la función T además de conseguir el objetivo de alargar el rangodinámico de los valores de niveles de gris no introduzca perturbaciones sobre la imagendebemos imponer algunas condiciones sobre dicha función. Por ahora impondremos tan solo dos condiciones: • En el intervalo de valores de r, T(r) debe ser una función monótona creciente. • 0 ≤ T(r) ≤ 255, para 0 ≤ r ≤ 255. 20Física de la Visión Jaime Martínez Verdú
  • 193. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial La primera condición preserva el orden en los píxeles desde el negro al blanco yla segunda condición garantiza que la función T conserva sus valores dentro del rangopermitido. Existen infinitas curvas que verifican estas condiciones, de hecho cualquiercurva plana que una el origen de coordenadas con el punto (255,255) de manera que notenga ni máximos ni mínimos y cuyo grafo se mantenga dentro del cuadrado definidopor los puntos (0,0), (255,0), (0,255) y (255,255) verifica las condiciones establecidas. Para seleccionar una curva con un comportamiento adecuado a nuestros deseosdebemos y podemos considerar que estas funciones son distribuciones acumuladas deprobabilidad, aunque para ello ahora supongamos que el rango de definición de losvalores r y s están en [ 0 , 1 ] en lugar de [ 0 , 255 ]. Esta hipótesis no resta ningunageneralidad al análisis. Un resultado elemental de la teoría de la probabilidad establece que sitenemos una variable aleatoria R, que en nuestro caso sería la función que asigna valorde nivel de gris a cada píxel, la transformación de dicha variable aleatoria por lafunción acumulada de probabilidad de dicha variable aleatoria, PR(R), define unadistribución uniforme de valores. Es decir, que si consideramos T = PR, el conjunto devalores de s resultante de la transformación s = T (r) sigue una distribución uniforme. (a) (b) (c) (d)Figura 7.11. Ecualización de histogramas: (a) Imagen original; (b) Histograma original; (d) Imagen ecualizada; (d) Histograma ecualizado. 21Física de la Visión Jaime Martínez Verdú
  • 194. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial Ya que una distribución uniforme supone que todos los puntos tienen la mismamasa de probabilidad, parece de interés que usemos esta función T como medio deredistribuir la masa de puntos asignada a los distintos niveles de gris. En cada casoparticular debemos de construir la función T a partir de la imagen de la siguientemanera: T (rk ) k n j =∑ (20) 255 j = 0 N para k = 0, 1, 2,…, 255. Donde N representa el número total de píxeles en laimagen, y nj el número de píxeles con nivel de gris j.7.3.3. Especificación del Histograma. Una generalización de la técnica anterior nos permitirá transformar una imagencuyo histograma sea una distribución uniforme, a otra imagen cuya forma de histogramaeste definido por nosotros. Como ya mencionamos al principio de esta lección puede serde interés transformar el histograma de la imagen original de manera que la imagenresultante tenga un histograma definido por una función en forma de campana(gaussiana). ζ = T(τ) τ ζ τ = T-1(ζ) Ξ = G(Σ) Σ Ξ Σ = G-1(Ξ) Figura 7.12. Obtención de una imagen (conocido su histograma) a partir de otra. De este modo conseguimos, a partir de una imagen con un determinadohistograma, otra imagen incógnita cuyo histograma era uno deseado. En definitiva,podemos deducir que la imagen se obtiene matemáticamente empleando la siguienteexpresión: Σ = G −1 (T (τ )) ⇔ Σ = T o G −1 (τ ) (21) 22Física de la Visión Jaime Martínez Verdú
  • 195. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial Para llevar a cabo esta transformación habrá que hacer uso de nuevo delresultado antes mencionado de la teoría de la probabilidad. Ahora tendremos que hacerdos transformaciones para conseguir el objetivo, • Transformar la imagen original a una imagen con un histograma definido por la distribución uniforme: s = T (r) siendo T la función definida antes. • Calcular la función inversa del histograma acumulado que queremos que tenga la imagen final: G-1. Si queremos una imagen con un histograma definido por una gaussiana tendremos que calcular la función inversa de la función acumulada gaussiana. • Transformar de nuevo la imagen haciendo uso de la expresión z = G-1(s). La primera transformación nos permite pasar de una imagen con unascaracterísticas dadas por la forma de su histograma a una imagen con un histograma queaproxima una distribución uniforme, y la segunda transformación nos permite pasar dedicha imagen "neutra" a una nueva imagen cuyo histograma tiene la forma dada por lafunción G. En resumen, hemos calculado una nueva imagen a partir de la originalusando la transformación z = G-1(T(r)). En la práctica la función puede ser calculada de diversas maneras. Si conocemossu expresión analítica entonces tan solo tenemos que calcular su valor, pero si no es asípodemos usar una versión digitalizada de la gráfica de función G (histogramaacumulado) y a partir de dicha versión digitalizada aproximar el valor que estamoscalculando. Si observamos como son las dos transformaciones antes comentadas podemosver que la primera transforma valores del eje x en valores del eje y a través de T, y lasegunda transforma los valores del eje en valores del eje x a través de G.Ejemplo. En una imagen de 128 × 128 píxeles con 8 niveles de gris se tiene la siguientedistribución: Nivel 0 1 2 3 4 5 6 7 Número de píxeles 3.160 4.092 3.400 2.624 1.316 980 488 324 Se quiere pasar a una imagen cuyo histograma final sea: Nivel 0 1 2 3 4 5 6 7 Probabilidad 0 0 0 0,15 0,2 0,3 0,2 0,15 Puesto que es una función de probabilidad, debemos calcular el número total depíxeles y determinar así, para cada nivel de gris, la probabilidad de encontrar un píxelcon un determinado nivel de gris: Sabiendo que el número total de píxeles para esta imagen de 128 × 128 es de16.384 píxeles, sabemos que la probabilidad de encontrar un píxel que tenga un nivel degris i es justo la cantidad de píxeles que tiene nivel de gris i entre el número total. 23Física de la Visión Jaime Martínez Verdú
  • 196. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial P(N 0 ) = P ( N1 ) = 3.160 4.092 = 0,1929 = 0,2497 16.384 16.384 P(N 2 ) = P(N3 ) = 3.400 2.624 = 0,2075 = 0,1601 16.384 16.384 P(N 4 ) = P(N5 ) = 1.316 980 = 0,0803 = 0,0598 16.384 16.384 P(N 6 ) = P(N 7 ) = 488 324 = 0,0298 = 0,0197 16.384 16.384 Histograma Histograma deseado 0,250 0,3 0,200 0,25 Probabilidad 0,2 0,150 Nivel de gris 0,15 0,100 0,1 0,050 0,05 0,000 0 0 1 2 3 4 5 6 7 0 1 2 3 4 5 6 7 Nivel de gris Nivel de gris Figura 7.13. Histogramas del ejemplo.1ª Imagen.Normalización: 0 1 2 3 r0 = =0 r1 = = 0,1428 r2 = = 0,2857 r3 = = 0,4285 7 7 7 7 4 5 6 7 r4 = = 0,5714 r5 = = 0,7143 r6 = = 0,8571 r7 = = 1 7 7 7 7Función acumulativa: Nivel 0 1 2 3 4 5 6 7 Número de 0,1929 0,2497 0,2075 0,1601 0,0803 0,0598 0,0298 0,0197 píxelesF. Acumulativa 0,1929 0,4426 0,6501 0,8103 0,8906 0,9504 0,9802 1Vinculamos valores normalizados con la función acumulativa: Nivel 0 1 2 3 4 5 6 7 F. Acumulativa 0,1929 0,4426 0,6501 0,8103 0,8906 0,9504 0,9802 1 Normalizados 1 3 5 6 6 1 1 1 24Física de la Visión Jaime Martínez Verdú
  • 197. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial2ª Imagen.Normalización: 3 4 5 6 r0 = = 0,4285 r1 = = 0,5714 r2 = = 0,7143 r3 = = 0,8571 7 7 7 7 6 7 7 7 r4 = = 0,8571 r5 = = 1 r6 = = 1 r7 = = 1 7 7 7 7Función acumulativa: Nivel 0 1 2 3 4 5 6 7 Número de píxeles 0 0 0 0,15 0,2 0,3 0,2 0,15 F. Acumulativa 0 0 0 0,15 0,35 0,65 0,85 1Vinculamos valores normalizados con la función acumulativa: Nivel 0 1 2 3 4 5 6 7 F. Acumulativa 0 0 0 0,15 0,35 0,65 0,85 1 Normalizados 3 4 5 6 6 7 7 7 Mapa de Transición 7 6 Nivel de gris 5 4 3 2 1 0 0 1 2 3 4 5 6 7 Nivel de gris Figura 7.14. Mapa de transición solución. 25Física de la Visión Jaime Martínez Verdú
  • 198. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial7.4. Operaciones Geométricas. A menudo, para el análisis de imágenes, queremos investigar másespecíficamente un área dentro de una imagen, llamada Región de Interés. Para haceresto necesitamos operaciones que modifiquen las coordenadas espaciales de la imagen,las cuales se denominan operaciones geométricas. El objetivo fundamental de unaoperación geométrica es la transformación de los valores de una imagen tal y comopodría observarse desde otro punto de vista. Así las operaciones de magnificar o reducir una imagen, no es sino aproximar oalejar el punto de vista, rotarla equivale a girar el punto de vista de observación,trasladarla es hacer lo propio con dicho punto.7.4.1. Operación de Traslación. − ∂x posiciones eje x. Dado un punto P(x,y) lo trasladaremos − ∂y posiciones eje y. Esto supone que el punto final será P(x,y) donde x = x + ∂x e y = y + ∂y.Usaremos notación vectorial : x  x  ∂x  P =  ; P =  ; T =  ; ⇒ P = P + T (22)  y  y  ∂y  (4,4) (6,4) (7,1) (9,1) Figura 7.15. Operación de traslación.7.4.2. Operación de Escalado. Tendremos dos factores sx y sy para cada eje siendo el factor en el que va acambiar la figura en cada eje. Las posiciones cambiarán de la siguiente forma: x = x·s x (23) y = y ·s y Vectorialmente:  x  s x 0  x  y  =  0 sy   y · ⇒ P = S ·P (24)      26Física de la Visión Jaime Martínez Verdú
  • 199. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial Cuando escalamos estamos también variando su posición con respecto al origende coordenadas. Escalado diferencial Es aquel en el que los factores son distintos sx ≠ sy Escalado uniforme si sx = sy (4,4) (6,4) (2,2) (3,2) Figura 7.16. Operación de escalado. Podemos diferenciar entre los dos siguientes tipos de escalado, en función decómo se realice el mismo: 2 2 5 5 2 2 2 2 5 5 2 2 Réplica 2 2 5 5 2 2 2 2 2 2 5 5 6 6 6 6 Píxel único 2 5 2 2 2 2 Interpolación 2 5 2 3 4 5 6 6 6 6 2 3 4 5 4 4 Interpolación 2 3 4 5 4 4 2 3 4 5 AMPLIACIÓN REDUCCIÓN7.4.3. Operación de rotación. Se rota y se desplaza con respecto al origen. Haremos: x = x cos(θ ) − y sin (θ ) (25) y = y cos(θ ) + x sin (θ ) De forma vectorial:  x cos(θ ) − sin (θ )  x   y  =  sin (θ ) cos(θ ) · y  ⇒ P = R·P (26)      27Física de la Visión Jaime Martínez Verdú
  • 200. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial Si los ángulos son positivos el giro es en sentido contrario a las agujas del reloj. Si los ángulos son negativos el giro es en sentido de las agujas del reloj. NOTA: cos(− θ ) = cos(θ ) (27) sin (− θ ) = sin (θ ) (4’9,7’8) (2’1,4’9) (5,2) (9,2) Figura 7.17. Operación de rotación. 28Física de la Visión Jaime Martínez Verdú
  • 201. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial7.5. Operaciones morfológicas. La morfología matemática está basada en la geometría y la forma. Lasoperaciones morfológicas simplifican las imágenes y preservan las formas principalesde los objetos. En visión artificial es frecuente utilizar la morfología para el tratamiento deregiones en el sentido de determinar cómo se pueden cambiar, contar o evaluar. Lamorfología puede utilizarse para las siguientes tareas: • Suavizar los bordes de una región. Esto es útil, por ejemplo, se necesita mejorar un borde, ya que usando técnicas de segmentación estándar, los bordes se presentan generalmente ruidosos debido tanto al proceso de captura como a los procesas de segmentación apareciendo sobre ellos pequeños valles o protuberancias, que pueden suprimirse mediante transformaciones morfológicas. • Separar determinadas regiones que el proceso de segmentación las presenta unidas. • Unir regiones que han sido separadas durante la segmentación. Las operaciones matemáticas tienen su principal aplicación en imágenes binariasy los fundamentos matemáticos fueron concebidos desde el punto de vista de la posiciónantes que desde la intensidad. En las secciones de dilatación, erosión, apertura y cierrenos centraremos exclusivamente en la aplicación de la morfología a las imágenesbinarias para luego extender el estudio a las imágenes de grises.7.5.1. Fundamentos de las operaciones morfológicas. Puesto que una imagen binaria puede tratarse como un conjunto de puntos 2D,podemos decir que un punto representa un par de enteros que corresponden a lascoordenadas de la imagen digital. Los puntos que pertenecen a los objetos en la imagenrepresentan un conjunto X con valores binarios igual al uno lógico. Los puntos delconjunto complementario XC corresponden al fondo con valores binarios igual a cero.• 0 1 1 1 0 Fijándonos en el ejemplo de la izquierda, tenemos el 0 1 1 1 0  origen marcado con un punto con coordenadas (0,0) y las 0 0 1 1 0 coordenadas de cualquier punto se interpretan como  (posición de la fila, posición de la columna) con respecto al 0 0 1 1 0 origen. 0 0 0 0 0  Por tanto, los conjuntos serán: X = {(0,1), (0,2 ), (0,3), (1,1), (1,2 ), (1,3), (2,2 ), (2,3), (3,2 ), (3,3)} X C = {(0,0 ), (0,4 ), (1,0 ), (1,4 ), (2,0 ), (2,1), (2,4 ), (3,0 ), (3,1), (3,4 ), (4,0 ), (4,1), (4,2 ), (4,3), (4,4 )} Una transformación morfológica φ viene dada por la relación de la imagen X conotro pequeño conjunto de puntos B, llamado elemento estructural. B se expresa conrespecto a un origen local O (llamado punto representativo). 29Física de la Visión Jaime Martínez Verdú
  • 202. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial Existen una serie de elementos representativos muy utilizados cuyos conjuntosde puntos tienen la siguiente expresión: B1 = {(− 1,−1), (− 1,0 ), (− 1,1), (0,−1), (0,0 ), (0,1), (1,−1), (1,0 ), (1,1)} B2 = {(− 1,0 ), (0,−1), (0,0 ), (0,1), (1,0 )} B3 = {(0,−1), (0,1)}  1 1 1  1   1 •1 1  1 •1 1 [1 • 0 1]      1 1  1    1   La transformación morfológica φ(X) aplicada a la imagen X significa que elelemento estructural B se desplaza por toda la imagen. Suponiendo que B se posicionasobre algún punto de la imagen, el píxel de la imagen correspondiente al puntorepresentativo O de B se denomina píxel actual. El resultado obtenido de la relaciónentre la imagen X y el elemento estructural B en la posición actual se almacena en elpíxel actual de la imagen.7.5.2. Definiciones elementales. a) Dualidad. La dualidad de operaciones morfológicas se deduce de la existencia delconjunto complementario; de modo que para cada transformación morfológica φ(X)existe una transformación dual φ*(X) tal que, φ * (X C ) = [φ ( X ) ]C (28) b) Traslación. r La traslación del conjunto de puntos X por el vector h se denota por Xh y sedefine como, r { r r r r X h = d ∈ E 2 : d = x + h ∀x ∈ X } (29) r A continuación veremos un ejemplo de traslación por el vector h = (0,1). Estedesplazamiento se ejecuta moviendo "cero filas" y "una columna": • 0 1 0 0 0 • 0 0 1 0 0  0 1 0 0  0  0 0 1 0 0     0 0   h) →  0  0 Traslación X ( 0,1 1 1 0 0 1 1      1 1 0 0 0  0 1 1 0 0  0  1 0 0 0   0  0 1 0 0  30Física de la Visión Jaime Martínez Verdú
  • 203. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial c) Complemento de un conjunto. El complemento de un conjunto X es aquel conjunto que contenga todos losvalores que no se encuentren en X, es decir, X C = {x ∋ x ∉ X } (30) d) Diferencia de dos conjuntos. La diferencia de dos conjuntos X e Y es aquel conjunto que contenga todos losvalores que se encuentren en X pero que no estén en Y, es decir, X − Y = {x ∋ x ∈ X , x ∉ Y } (31)7.5.3. Operaciones morfológicas I: La dilatación. La transformación morfológica de la dilatación ⊕ combina dos conjuntosutilizando la adición de vectores (o adición de conjuntos de Minkowski). Por definición,la dilatación X ⊕ B es el conjunto de puntos de todas las posibles adiciones vectorialesde pares de elementos, uno de cada conjunto X y B. r { r r r r r X ⊕ B = d ∈ E 2 : d = x + b ∀x ∈ X y ∀b ∈ B } (32) Gráficamente, la dilatación se realiza como sigue: Se va recorriendo la imagen,por ejemplo, de izquierda a derecha y de abajo arriba y, donde nos encontremos un 1,situamos el origen del elemento estructural sobre ese 1. En esa posición se realiza launión del elemento estructural con la parte de la imagen sobre la que se solapa dichoelemento: superponemos el elemento estructural a la imagen. A continuación veremos una serie de ejemplos sobre la dilatación: Ejemplo 1:X = {(0,1), (1,2 ), (2,0), (2,1), (3,0), (3,1)}B = {(0,0), (0,1)}X ⊕ B = {(0,1), (1,2), (2,0), (2,1), (3,0), (3,1), (0,2), (1,3), (2,2), (3,2)} • 0 1 0 0 0 • 0 1 1 0 0  0 0 1 0 0  0 0 1 1 0      1 1 0 0 0 ⊕ [• 1 1] =  1 1 1 0 0      1 1 0 0 0  1 1 1 0 0  0  0 0 0 0   0  0 0 0 0  31Física de la Visión Jaime Martínez Verdú
  • 204. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial Ejemplo 2:X = {(0,1), (1,2 ), (2,1), (2,2), (3,1), (3,2), (3,4 ), (4,4)}B = {(0,−1), (0,1)}X ⊕ B = {(0,0 ), (1,1), (2,0), (2,1), (3,0), (3,1), (3,3), (4,3), (0,2), (1,3), (2,3), (2,2), (3,2), (3,3), (3,5), (4,5)} • 0 1 0 0 0 0 1 0 1 0 0  0 0 1 0 0 0 1 0 1 0 0      0 1 1 0 0 ⊕ [ 1 • 0 1] =  1 1 1 0 0 0      0 1 1 0 1 1 1 1 1 0 1  0  0 0 0 1  0  0 0 1 0 1  Ejemplo 3:X = {(0,1), (1,2 ), (2,1), (2,2), (3,1), (3,2), (3,4 ), (4,4)}B = {(0,−1), (0,1)}X ⊕ B = {(0,0 ), (1,1), (2,0), (2,1), (3,0), (3,1), (3,3), (4,3), (0,2), (1,3), (2,3), (2,2), (3,2), (3,3), (3,5), (4,5)} 0 1 0 0 0 0 • 0 1 0 0 0 0 1  0 1 0 0 0  0 1 0 0   1   0  0 1 1 1 0 0  0 1 1 0 0 ⊕  =    • 1 1 0 1  1 1 1 0  0 1 1 0 1 0 1 1 1 1 1  0  0 0 0 1    0 0  0 0 1 1  La dilatación tiene varias propiedades interesantes que permiten su fácilimplementación vía software. A continuación, se presentan algunas de las propiedadesde la dilatación: Conmutativa: X ⊕B= B⊕ X (33) Asociativa: X ⊕ (B ⊕ D ) = ( X ⊕ B ) ⊕ D (34) Invariante a la traslación: X h ⊕ B = ( X ⊕ B )h (35) Transformación creciente: Si X ⊆ Y ⇒ X ⊕ B ⊆ Y ⊕ B (36) Figura 7.18. Operación de dilatación. 32Física de la Visión Jaime Martínez Verdú
  • 205. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial7.5.4. Operaciones morfológicas II: La erosión. La transformación morfológica de la erosión ⊗ combina dos conjuntosutilizando la substracción de vectores. Es fácilmente intuir que esta operación es dual ala dilatación y que, además, ni la dilatación ni la erosión son invertibles. Por definición,la erosión es: r { r r r X ⊗ B = d ∈ E 2 : d + b ∈ X ∀b ∈ B } (37) Gráficamente, la erosión se realiza como sigue: Se va recorriendo la imagen, porejemplo, de izquierda a derecha y de abajo arriba y, donde nos encontremos un 1,situamos el origen del elemento estructural sobre ese 1. En esa posición se realiza lacomparación del elemento estructural con la parte de la imagen sobre la que se solapadicho elemento. Si, todos los unos del elemento estructural coinciden con unos en laimagen, entonces marcamos el píxel de la imagen donde está el origen del elementoestructural con el valor 1. Ejemplo 1:X = {(0,1), (1,2 ), (2,0), (2,1), (3,0), (3,1)}B = {(0,0), (0,1)}X ⊕ B = {(0,1), (1,2), (2,0), (2,1), (3,0), (3,1), (0,2), (1,3), (2,2), (3,2)} • 0 1 0 0 0 • 0 0 0 0 0  0 0 1 0 0  0 0 0 0 0      1 1 0 0 0 ⊗ [• 1 1] =  1 0 0 0 0      1 1 0 0 0  1 0 0 0 0  0  0 0 0 0   0  0 0 0 0  Ejemplo 2:X = {(0,1), (1,2 ), (2,1), (2,2), (3,1), (3,2), (3,4 ), (4,4)}B = {(0,−1), (0,1)}X ⊕ B = {(0,0 ), (1,1), (2,0), (2,1), (3,0), (3,1), (3,3), (4,3), (0,2), (1,3), (2,3), (2,2), (3,2), (3,3), (3,5), (4,5)} • 0 0 1 0 0 • 0 0 0 0 0  1 0 1 0 0  0 0 0 0 0    1 0    1 1 1 1 0 ⊕  = 1 0 1 0 0   • 1 1     0 0 1 0 0  0 0 0 0 0  0  0 1 1 0   0  0 1 0 0  La erosión provoca la desaparición de muchos contornos existentes en la imagenoriginal. La erosión con un elemento estructural isótropo es denominada por algunosautores como reducción. Esta operación es utilizada para simplificar la estructura de losobjetos. 33Física de la Visión Jaime Martínez Verdú
  • 206. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial La erosión tiene varias propiedades interesantes que permiten su fácilimplementación vía software. A continuación, se presentan algunas de las propiedadesde la dilatación: No conmutativa: X ⊕B≠ B⊕ X (38) Anti-extensiva: Si (0,0 ) ∈ B ⇒ X ⊗ B ⊆ X (39) Invariante a la traslación: X h ⊗ B = ( X ⊗ B )h (40) Transformación creciente: Si X ⊆ Y ⇒ X ⊗ B ⊆ Y ⊗ B (41) Agresiva: Si D ⊆ B ⇒ X ⊗ B ⊆ X ⊗ D (42) Conjunto simétrico: ( { r r B = − b;b ∈ B } ( (43) Transformaciones duales: ( X ⊗ Y )C = X C ⊕ Y (44) Figura 7.19. Operación de erosión.7.5.5. Operaciones morfológicas III: La apertura y el cierre. La erosión y la dilatación son transformaciones no invertibles. Si una imagen eserosionada y luego dilatada, la imagen original no se recupera. En efecto, obtendríamosuna imagen más simplificada y menos detallada que la imagen original. La erosión seguida de una dilatación crea una transformación morfológicaimportante denominada apertura. La apertura de una imagen X por un elementoestructural B se denota por X◦B y se define como: X o B = (X ⊗ B) ⊕ B (45) La dilatación seguida de una erosión crea una transformación morfológicaimportante denominada cierre. El cierre de una imagen X por un elemento estructural Bse denota por X•B y se define como: X • B = (X ⊕ B) ⊗ B (46) Si una imagen X permanece invariable por apertura con respecto al elementoestructural B, se dice que es abierta con respecto a B. De igual modo, si una imagen Xpermanece invariable por cierre con respecto al elemento estructural B se dice que escerrada con respecto a B. 34Física de la Visión Jaime Martínez Verdú
  • 207. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial La apertura y el cierre con un elemento isótropo se utilizan para eliminar detallesespecíficos de la imagen más pequeños que el elemento estructural. La forma global delos objetos no se distorsiona. El cierre conecta objetos que están próximos entre sí,rellena pequeños huecos y suaviza el contorno mientras que la apertura produce elefecto contrario. (a) (b) Figura 7.20. Operaciones: (a) Operación de apertura; (b) Operación de cierre. Algunas de las propiedades más interesantes de estas operaciones es, porejemplo, que ambas son invariantes respecto a la traslación, que la apertura esanti-extensiva y el cierre extensivo. Otro importante hecho es que la apertura y el cierreutilizadas iterativamente son idempotentes, lo que implica que la reaplicación de esastransformaciones no cambia el resultado previo. Formalmente, esto es, X o B = (X o B) o B (47) X • B = (X • B) • B Además de otras aplicaciones de estas operaciones, existe una realmenteinteresante para nuestro objetivo. La siguiente operación combinando apertura y erosiónobtiene los bordes de las regiones, Bordes = X o B − X ⊗ B (47) − = (a) (b) (c) Figura 7.21. Detección de bordes: (a) Apertura; (b) Erosión; (c) Resultado de restar. 35Física de la Visión Jaime Martínez Verdú
  • 208. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial7.5.6. Operaciones morfológicas en escala de grises. Las operaciones antes estudiadas se pueden transferir al caso de una imagen enescala de grises. Las operaciones se expresan de la siguiente manera: Dilatación: (f ⊕ b )( x, y ) = máx { f ( x − i, y − j ) + b(i, j )} (49) 0 ≤ i ≤ m −1 0 ≤ j ≤ n −1 El efecto general de realizar una dilatación en imágenes de gris también esdoble: (1) si todos los valores del elemento estructural son positivos, la imagen de salidatiende a ser más brillante que la de entrada; y (2) los detalles oscuros o bien sonreducidos o eliminados dependiendo de sus valores. Erosión: (f ⊕ b )( x, y ) = mín { f ( x + i, y + j ) − b(i, j )} (50) 0 ≤ i ≤ m −1 0 ≤ j ≤ n −1 El efecto general de realizar una dilatación en imágenes de gris también esdoble: (1) si todos los valores del elemento estructural son positivos, la imagen de salidatiende a ser más oscura que la de entrada; y (2) los detalles brillantes o bien sonreducidos o eliminados dependiendo de sus valores. Ejemplo:X = {(0,1), (1,2 ), (2,0), (2,1), (3,0), (3,1)}B = {(0,0), (0,1)}X ⊕ B = {(0,1), (1,2), (2,0), (2,1), (3,0), (3,1), (0,2), (1,3), (2,2), (3,2)} 0 0 0 0 0 0 0 0 2 2 2 2 2 2 2 2 0  0 3 4 4 5 0 0 2 2 4 5 6 6 7 2  • 1 2   0 0 5 4 4 5 0 0 ⊕   = 2 2 6 7 6 6 7 2    1 2   0 0 1 3 3 2 0 0 2 2 6 7 6 6 7 2 0  0 0 0 0 0 0 0  2 2  2 2 2 2 2 2  0 0 0 0 0 0 0 0 − 2 − 2 − 2 − 2 − 2 − 2 − 2 − 2 0  0 3 4 4 5 0 0 − 2 − 1 2 2 2 − 2 − 2 − 2  • 1 2   0 0 5 4 4 5 0 0 ⊗   = − 2 − 1 0 1 0 − 2 − 2 − 2    1 2   0 0 1 3 3 2 0 0 − 2 − 2 − 2 − 2 − 2 − 2 − 2 − 2 0  0 0 0 0 0 0 0  − 2 − 2 − 2 − 2 − 2  − 2 − 2 − 2  36Física de la Visión Jaime Martínez Verdú
  • 209. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial7.5.7. Algunas aplicaciones de la morfología en imágenes de grises.Suavizado morfológico. Una forma de conseguir un cierto suavizado consiste en realizar una aperturamorfológica de un cierre. El resultado de esas dos operaciones consiste en eliminar oatenuar tanto las zonas brillantes y oscuras como el ruido.Gradiente morfológico. La dilatación y la erosión se utilizan a menudo para obtener el gradientemorfológico de una imagen denotado g y definido por: g = ( f ⊕ B) − ( f ⊗ B) (51)Transformación sobrero en la parte superior o "top-hat". Esta transformación viene dada por: h = f − ( f o B) (52) donde f es la imagen de entrada y B el elemento estructura. Esta transformacióndebe su nombre al uso de un elemento estructural rectangular con una parte superior enforma de sombrero. Es útil para el realzado de detalles ante presencia de sombras. • 1 1 1 1 1 1 1  1 1 1 1 1 1 1    0 0 1 1 1 0 0   B= 0 0 1 1 1 0 0  0 0 1 1 1 0 0    0 0 1 1 1 0 0  0 0 1 1 1 0 0   (a) (b) (c) Figura 7.22. Aplicaciones de morfología en grises: (a) Suavizado morfológico; (b) Gradiente morfológico; (c) Resultado de una transformación "top-hat". 37Física de la Visión Jaime Martínez Verdú
  • 210. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial7.6. Eliminación de ruido en el dominio espacial. El ruido es una información no deseada que contamina la imagen el cual apareceen las imágenes procedente de una gran variedad de fuentes. El proceso de adquisiciónde la imagen digital, que convierte la imagen óptica en una señal eléctrica continua queluego es muestreada, es el primer proceso por el cual el ruido aparece en imágenesdigitales. Por tanto, podríamos definir la imagen como una componente pura g(x,y)junto con una componente de ruido ξ(x,y) tal y como se expresa a continuación: f ( x , y ) = g ( x, y ) + ξ ( x, y ) (53) En cada paso del proceso hay fluctuaciones originadas por fenómenos naturalesque añaden un valor aleatorio al valor exacto de la intensidad para un determinadopíxel. f ( x, y ) g ( x, y ) H + + ξ (x, y ) Figura 7.23. Modelo del proceso de degradación de una imagen.7.6.1. Tipos de ruido. En las imágenes típicas de ruido puede modelarse bien como una distribucióngaussiana (normal), uniforme, "sal y pimienta" (impulsivo), Rayleigh, Exponencialnegativo o Gamma. a) Gaussiano. La forma de distribución de este tipo de ruido como nivel de gris se puedemodelar como un histograma h, cuya descripción analítica es la siguiente: − ( g − m )2 1 hG = e 2σ 2 (54) 2πσ 2 donde g es el nivel de gris del ruido, m el valor medio y σ la desviación estándar. Figura 7.24. Distribución Gaussiana para m = 0: r σ = 2; a σ = 3; v σ = 4. 38Física de la Visión Jaime Martínez Verdú
  • 211. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial b) Uniforme. La forma de distribución de este tipo de ruido como nivel de gris se puedemodelar como un histograma h, cuya descripción analítica es la siguiente:  1  para a ≤ g ≤ b hU =  b − a (55) 0  en otro caso donde g es el nivel de gris del ruido, ( a + b )/2 el valor medio y ( b − a )2/12 lavarianza. 1 b−a a b Figura 7.25. Distribución Uniforme. c) Impulsivo. La forma de distribución de este tipo de ruido como nivel de gris se puedemodelar como un histograma h, cuya descripción analítica es la siguiente: A para g = a ( sal ) hS − P =  (56) B para g = b ( pimienta ) B A a b Figura 7.26. Distribución Impulsiva. d) Rayleigh. La forma de distribución de este tipo de ruido como nivel de gris se puedemodelar como un histograma h, cuya descripción analítica es la siguiente: g2 2g − hR = e α (54) α donde g es el nivel de gris del ruido, 2/α el valor medio y α la desviaciónestándar. 39Física de la Visión Jaime Martínez Verdú
  • 212. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial Figura 7.27. Distribución Rayleigh para: a α = 2; a α = 4; v α = 8. e) Exponencial negativo. La forma de distribución de este tipo de ruido como nivel de gris se puedemodelar como un histograma h, cuya descripción analítica es la siguiente: g 1 − hE − N = e α (54) α donde g es el nivel de gris del ruido, 1/α el valor medio y α la desviaciónestándar.Figura 7.28. Distribución Exponencial negativa para: a α = 2; a α = 4; v α = 8. f) Gamma. La forma de distribución de este tipo de ruido como nivel de gris se puedemodelar como un histograma h, cuya descripción analítica es la siguiente: g α −1 g − hE − N = e α (54) (α − 1)!α α donde g es el nivel de gris del ruido, α2 el valor medio y α la desviaciónestándar. 40Física de la Visión Jaime Martínez Verdú
  • 213. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial7.6.2. Filtros de orden. a) Mediana. Sustituimos el valor actual del píxel por la mediana. Esto se puede verclaramente en el siguiente ejemplo: 50 65 98 45 85 71 ⇒ M ⇒ {45,50,57,65,66,71,83,85,98} ⇒ 66   Me 57 66 83   El código implementado de este filtro es el siguiente: function filtro_mediana( A ) [ f c ] = size( A ); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f , c ); vector = zeros ( 1 , 9 ); for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1 k = 0; for n = –1 : 1 : 1 for m = –1 : 1 : 1 vector( 1 , k ) = A( i – n , j – m ); k = k + 1; end end [ ordenado , indices ] = sort( vector ); C ( i , j ) = ordenado ( 1 , 5 ); end end return 41Física de la Visión Jaime Martínez Verdú
  • 214. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial b) Moda. Sustituimos el valor actual del píxel por la moda. Esto se puede ver claramenteen el siguiente ejemplo: 50 66 98 45 85 71 ⇒ M ⇒ {45,50,57,66,66,71,83,85,98} ⇒ 66   Mo 57 66 83   El código implementado de este filtro es el siguiente: function filtro_moda( A ) [ f c ] = size( A ); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f , c ); vector = zeros ( 1 , 9 ); moda = zeros ( 1 , 9 ); for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1 k = 0; …………….. …………….. end end end end return 42Física de la Visión Jaime Martínez Verdú
  • 215. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial c) Mínimo. Sustituimos el valor actual del píxel por el mínimo. Esto se puede verclaramente en el siguiente ejemplo: 50 65 98 45 85 71 ⇒ M ⇒ {45,50,57,65,66,71,83,85,98} ⇒ 45   Mín 57 66 83   El código implementado de este filtro es el siguiente: function filtro_minimo(A) [ f c ] = size(A); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f , c ); vector = zeros ( 1 , 9 ); for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1 k = 0; for n = –1 : 1 : 1 for m = –1 : 1 : 1 vector( 1 , k ) = A( i – n , j – m ); k = k + 1; end end C ( i , j ) = min( vector ); end end return 43Física de la Visión Jaime Martínez Verdú
  • 216. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial d) Máximo. Sustituimos el valor actual del píxel por el máximo. Esto se puede verclaramente en el siguiente ejemplo: 50 65 98 45 85 71 ⇒ M ⇒ {45,50,57,65,66,71,83,85,98} ⇒ 98   Máx 57 66 83   El código implementado de este filtro es el siguiente: function filtro_maximo(A) [ f c ] = size(A); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f , c ); vector = zeros ( 1 , 9 ); for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1 k = 0; for n = –1 : 1 : 1 for m = –1 : 1 : 1 vector( 1 , k ) = A( i – n , j – m ); k = k + 1; end end C ( i , j ) = max( vector ); end end return 44Física de la Visión Jaime Martínez Verdú
  • 217. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial e) Punto medio. Sustituimos el valor actual del píxel por el punto medio entre el máximo y elmínimo. Esto se puede ver claramente en el siguiente ejemplo: 50 65 98 45 85 71 ⇒ M ⇒ {45,50,57,65,66,71,83,85,98} ⇒ 45 + 98 ≈ 72   Me 2 57 66 83   El código implementado de este filtro es el siguiente: function filtro_maximo(A) [ f c ] = size(A); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f , c ); vector = zeros ( 1 , 9 ); for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1 k = 0; for n = –1 : 1 : 1 for m = –1 : 1 : 1 vector( 1 , k ) = A( i – n , j – m ); k = k + 1; end end C ( i , j ) = ( min( vector ) + max( vector ) ) / 2; end end return 45Física de la Visión Jaime Martínez Verdú
  • 218. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial f) Alfa recortado. El parámetro α nos indicará cuanto hemos de recortar los extremos. El casolímite de este filtro es el filtro de la mediana. Esto se puede ver claramente en elsiguiente ejemplo con α = 2: 50 65 98 45 85 71 ⇒ M ⇒ {45,50,57,65,66,71,83,85,98} ⇒ 98   α 57 66 83   El código implementado de este filtro es el siguiente: function filtro_maximo( A , alfa ) [ f c ] = size(A); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f , c ); vector = zeros ( 1 , 9 ); for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1 k = 0; for n = –1 : 1 : 1 for m = –1 : 1 : 1 vector( 1 , k ) = A( i – n , j – m );k = k + 1; end end [ ordenado , indices ] = sort( vector ); C ( i , j ) = 0; for l = alfa : 1: 9 – alfa C ( i , j ) = C ( i , j ) + ordenado ( 1 , l ); end C ( i , j ) = C ( i , j ) / ( 9 – 2*alfa ); end end return 46Física de la Visión Jaime Martínez Verdú
  • 219. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial (a) (b) (c) (d) (e) (f) (g) Figura 7.29. Resultado de aplicar los filtros de orden. (a) Imagen con ruido. (b) Imagen resultado de aplicar el filtro de la mediana. (c) Imagen resultado de aplicar el filtro de la moda. (d) Imagen resultado de aplicar el filtro del mínimo. (e) Imagen resultado de aplicar el filtro del máximo. (f) Imagen resultado de aplicar el filtro del punto medio. (g) Imagen resultado de aplicar el filtro α recortado. 47Física de la Visión Jaime Martínez Verdú
  • 220. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial7.6.3. Filtros de media. a) Media aritmética. En este tipo de filtro se consigue aportar un valor al punto central de la máscaraigual al de la media aritmética de los puntos de la máscara. Las características quepresenta este filtro son las siguientes: • Difumina la imagen ya sea ante sal (valor de nivel de gris alto) o pimienta (valor de nivel de gris alto). • Es un filtro apto para ruidos de tipo gaussiano y variantes. • Es capaz de eliminar bordes y hacer desaparecer detalles. Formalmente, el filtrado supone realizar la suma de las nueve componentes quese tiene al superponer el filtro a la imagen, es decir,  z1 z2 z3  z z + z + z + z + z + z + z7 + z8 + z9 1 9  4 z5 z6  ⇒ M A = 1 2 3 4 5 6  = ∑ zi 9 9 i =1  z7  z8 z9   El código implementado de este filtro es el siguiente: function filtro_media_aritmetica( A ) [ f c ] = size( A ); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f , c ); for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1 C( i – 1 , j – 1 ) = sum( A( i – 1 : i + 1 , j – 1 : j + 1 ) ) / 9; end end return 48Física de la Visión Jaime Martínez Verdú
  • 221. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial b) Media geométrica. En este tipo de filtro se consigue aportar un valor al punto central de la máscaraigual al de la media geométrica de los puntos de la máscara. Las características quepresenta este filtro son las siguientes: • Difumina la imagen ya sea ante sal (valor de nivel de gris alto) o pimienta (valor de nivel de gris alto). • Es un filtro apto para ruidos de tipo gaussiano y variantes. • Es capaz de detectar bordes y detalles que eliminaba la media aritmética. Formalmente, el filtrado supone realizar el producto de las nueve componentesque se tiene al superponer el filtro a la imagen y hacer la raíz novena, es decir,  z1 z2 z3  9 z z6  ⇒ M G = 9 z1· z2 ·z3 ·z4 ·z5 ·z6 ·z7 ·z8 ·z9 = 9  4 z5  ∏z i =1 i  z7  z8 z9   El código implementado de este filtro es el siguiente: function filtro_media_geometrica( A ) [ f c ] = size( A ); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f , c ); for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1 C( i – 1 , j – 1 ) = ( prod( A( i – 1 : i + 1 , j – 1 : j + 1 ) ) )^(1 / 9); end end return 49Física de la Visión Jaime Martínez Verdú
  • 222. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial c) Media armónica. En este tipo de filtro se consigue aportar un valor al punto central de la máscaraigual al de la media armónica de los puntos de la máscara. Las características quepresenta este filtro son las siguientes: • Difumina la imagen ya sea ante sal (valor de nivel de gris alto) pero no ante pimienta ya que no elimina este tipo de ruido. • Es un filtro apto para ruidos de tipo gaussiano y variantes. Formalmente, el filtrado supone realizar las siguientes operaciones siguiendo ladefinición de media armónica, es decir,  z1 z2 z3  z z5 z6  ⇒ M H = 9 = 9  4  1 1 1 1 1 1 1 1 1 9 1   z7 z8 z9   + + + + + + + + z1 z2 z3 z4 z5 z6 z7 z8 z9 ∑z i =1 i El código implementado de este filtro es el siguiente: function filtro_media_armonica( A ) [ f c ] = size( A ); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f , c ); for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1 C( i – 1 , j – 1 ) = 9 / sum( 1 ./ A( i – 1 : i + 1 , j – 1 : j + 1 ) ); end end return 50Física de la Visión Jaime Martínez Verdú
  • 223. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial d) Media contra-armónica. En este tipo de filtro se consigue aportar un valor al punto central de la máscaraigual al de la media contra-armónica de los puntos de la máscara. Las características quepresenta este filtro son las siguientes: • Depende del valor de R que nosotros definimos. • R < 0, eliminamos ruido tipo sal. • R > 0, eliminamos ruido tipo pimienta. Formalmente, el filtrado supone realizar la siguiente operación elemento aelemento, es decir, 9 z1z z2 z3  z R +1 + z2 +1 + z3 +1 + z4 +1 + z5 +1 + z6 +1 + z7 +1 + z8R +1 + z9 +1 R R R R R R R ∑z i R +1 4 z5 z6  ⇒ M C − H = 1  = i =1 z1R + z2 + z3 + z 4 + z5 + z6 + z7 + z8R + z9 R R R R R R R 9 z7 z8 z9   ∑z i =1 i R El código implementado de este filtro es el siguiente: function filtro_media_contrarmonica( A , R ) [ f c ] = size( A ); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f , c ); for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1 C( i – 1 , j – 1 ) = ( sum( A( i – 1 : i + 1 , j – 1 : j + 1 ).^(R + 1 ) ) / ( sum( A( i – 1 : i + 1 , j – 1 : j + 1 ).^R ); end end return 51Física de la Visión Jaime Martínez Verdú
  • 224. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial e) Media Yp. En este tipo de filtro se consigue aportar un valor al punto central de la máscaraigual al de la media Yp de los puntos de la máscara. Las características que presenta estefiltro son las siguientes: • Depende del valor de P que nosotros definimos. • P < 0, eliminamos ruido tipo pimienta. • P > 0, eliminamos ruido tipo sal. Formalmente, el filtrado supone realizar la siguiente operación elemento aelemento, es decir, 9  z1 z z2 z3  z P + z2 + z3 + z 4 + z5 + z6 + z7 + z8P + z9 P P P P P P P P ∑z i P  4 z5 z6  ⇒ M Y p = P 1  = i =1 9 9   z7 z8 z9   El código implementado de este filtro es el siguiente: function filtro_media_yp( A , P ) [ f c ] = size( A ); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f , c ); for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1 C( i – 1 , j – 1 ) = ( ( sum( A( i – 1 : i + 1 , j – 1 : j + 1 ).^P ) / 9)^(1 / P); end end return 52Física de la Visión Jaime Martínez Verdú
  • 225. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial (a) (b) (c) (d) (e) (f) (g) (h) (i) (j) Figura 7.29. Resultado de aplicar los filtros de orden. (a) Imagen con ruido sal y pimienta. (b) Imagen con ruido sal. (c) Imagen con ruido pimienta. (d) Imagen resultado de aplicar el filtro de la media aritmética. (e) Imagen resultado de aplicar el filtro de la media geométrica. (f) Imagen resultado de aplicar el filtro de la media armónica. (g) Imagen resultado de aplicar el filtro de la media contra-armónica. (h) Imagen resultado de aplicar el filtro de la media YP. 53Física de la Visión Jaime Martínez Verdú
  • 226. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial7.7. Bibliografía. Tratamiento Digital de Imágenes. Rafael C. González, Richard E. Woods. Visión por Computador, Imágenes digitales y aplicaciones. Gonzalo Pajares, Jesús M. de la Cruz. 54Física de la Visión Jaime Martínez Verdú
  • 227. Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial 55Física de la Visión Jaime Martínez Verdú
  • 228. BLOQUE II: SISTEMAS DE VISIÓN ARTIFICIAL.TEMA VIII: Transformadas de la imagen.8.1. Transformada de Fourier 1 8.1.1. Transformada de Fourier continua 1 a) Unidimensional 1 b) Bidimensional 2 8.1.2. Transformada de Fourier discreta 4 c) Unidimensional 4 d) Bidimensional 4 8.1.3. Algunas propiedades de la Transformada de Fourier discreta 6 Propiedad I: Separabilidad 6 Propiedad II: Traslación 8 Propiedad III: Periodicidad y simetría conjugada 9 Propiedad IV: Rotación 10 Propiedad V: Distributividad y cambio de escala 11 Propiedad VI: Valor medio 12 Propiedad VI: Laplaciano 12 Propiedad VI: Convolución y Correlación 12 8.1.4. Transformada Rápida de Fourier 13 8.1.5. Representación del logaritmo del espectro de Fourier 138.2. Aplicaciones a la Transformada de Fourier 14 a) Analizador de texturas 14 b) Ruido 14 c) Detección de bordes 168.3. Transformada de Hough 178.4. Aplicaciones de la Transformada de Hough 208.5. Bibliografía 21
  • 229. Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión Artificial8.1. Transformada de Fourier.8.1.1. Transformada de Fourier continua.a) Transformada de Fourier unidimensional. Sea f(x) una función continua de la variable real x, la Transformada Directa deFourier de f(x), indicada por ℑ {f(x)}, se define por la siguiente ecuación: +∞ ℑ{ f ( x )} = F (u ) = ∫ f ( x )e − j 2π ux dx (1) −∞ Dada una F(u), podemos hallar f(x) empleando la Transformada Inversa deFourier, cuya expresión es la siguiente: ℑ−1{F (u )} = f ( x ) = ∫ f ( x )e + j 2π ux dx +∞ (2) −∞ Las ecuaciones anteriores, denominadas par de Transformadas de Fourier,existen siempre y cuando f(x) sea una función continua e integrable y F(u) seaintegrable (aspectos que se satisfacen casi siempre en la práctica). La variable u hacereferencia a la frecuencia. Puesto que el integrando corresponde a una función compleja en el dominio delespacio, como resultado de integrar, obtendremos también una función compleja en eldominio de la frecuencia. Sin embargo, trabajaremos con el módulo de la transformadapuesto que será la característica que más información nos aporte sobre la imagen.Ejemplo: Considerando la función f(x) representada a continuación, obtenga laTransformada de Fourier de la misma: f (x ) A 0 ≤ x ≤ Xf (x ) =  0 en otro caso X x Su Transformada de Fourier se obtiene de la ecuación anterior de la siguienteforma: +∞ +∞F (u ) = ∫ 0 X X A·e − j 2π ux dx = ∫ A·e − j 2π ux dx + ∫ A·e − j 2π ux dx + ∫ A·e − j 2π ux dx = ∫ A·e − j 2π ux dx = −∞ −∞ 0 X 0 X A 1 − e − j 2π uX  A=  − j 2π u  ·e − j 2π ux  = A j 2π u [ e − j 2π u 0 − e − j 2π uX = ] A j 2π u [ 1 − e − j 2π uX = jπ u 2 ] =  0 A e + j 2π uX − e − jπ uX − jπ uX sen(π uX )e − jπ uX A= e = jπ u 2 jπ u F (u ) = sen(π uX )e − jπ uX A jπ u 1Física de la Visión Jaime Martínez Verdú
  • 230. Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión Artificial Puesto que a nosotros nos interesa representar el módulo de la Transformada deFourier, tenemos que el módulo es: sen(π uX ) F (u ) = sen(π uX )e − jπ uX ⇒ F (u ) = · sen(π uX )· e − jπuX = AX A A jπ u jπ u π uX Representado gráficamente es: AX 3 2 1 1 2 3 − − − X X X X X Xb) Transformada de Fourier bidimensional. Sea f(x,y) una función continua de dos variables reales x e y, la TransformadaDirecta de Fourier de f(x,y), indicada por ℑ {f(x,y)}, se define por la siguiente ecuación: ℑ{ f ( x, y )} = F (u , v ) = ∫ f ( x, y )e − j 2π (ux + vy )dxdy +∞ (3) −∞ Dada una F(u), podemos hallar f(x) empleando la Transformada Inversa deFourier, cuya expresión es la siguiente: ℑ−1 {F (u, v )} = f ( x, y ) = ∫ F (u, v )e + j 2π (ux + vy )dudv +∞ (4) −∞ Las ecuaciones anteriores, denominadas par de Transformadas de Fourier,existen siempre y cuando f(x,y) sea una función continua e integrable y F(u,v) seaintegrable (aspectos que se satisfacen casi siempre en la práctica). Las variables u y vhacen referencia a la frecuencia, concepto que ahora es más complicado de ver.Ejemplo: Considerando la función f(x,y) representada a continuación, obtenga laTransformada de Fourier de la misma: f ( x, y )  A 0 ≤ x ≤ X ;0 ≤ y ≤ Y Af ( x, y ) =  0 en otro caso y Y x X 2Física de la Visión Jaime Martínez Verdú
  • 231. Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión Artificial Su Transformada de Fourier se obtiene de la ecuación anterior de la siguienteforma: +∞ +∞F (u , v ) = ∫ A·e − j 2π (ux + vy )dxdy = ∫ A·e − j 2π (ux + vy )dxdy + ∫ A·e − j 2π (ux + vy )dxdy + 0 0 Y X −∞ −∞ ∫ −∞ −∞ ∫ 0 ∫ 0 +∞ +∞ A·e − j 2π (ux + vy )dxdy = ∫ A·e − j 2π (ux + vy )dxdy =  ∫ e − j 2π vy dy · ∫ e − j 2π ux dx  =  0 Y X Y X+∫ ∫ ∫  0  Y X 0 0    Y X 2  1= A  − j 2π v   1 ·e − j 2π vy  ·  − j 2π u ·e − j 2π ux   1  A − j 2π u 0  =  − j 2π  uv e   [ − e − j 2π vY · e − j 2π u 0 − e − j 2π uX = ][ ]  0  0   2 2  A 1 − e − j 2π vY 1 − e − j 2πuX  1=   A  uv 1 − e  [ − j 2π vY ][  1 · 1 − e − j 2π uX =   − jπ ]   uv =  − j 2π    2 2 2  1  A e + jπ vY − e − jπ vY − jπ vY e + j 2πuX − e − jπ uX − jπuX=    uv e e =  − jπ  2 2 sen(π uX )e − jπ uX sen(π vY )e − jπ vY 2  1  A  uv sen(π vY )e sen(π uX )e − jπ vY − jπ uX=   = AXY  − jπ  π uX π vY sen(π uX )e − jπ uX sen(π vY )e − jπ vY F (u , v ) = AXY π uX π vY Puesto que a nosotros nos interesa representar el módulo de la transformada deFourier, tenemos que el módulo es: sen(π uX )e − jπ uX sen(π vY )e − jπ vY sen(π uX )e − jπ uX sen(π vY )e − jπ vYF (u , v ) = AXY ⇒ F (u, v ) = AXY · · π uX π vY π uX π vY sen(π uX ) sen(π vY ) F (u , v ) = AXY · · π uX π vY Representado gráficamente es: 3Física de la Visión Jaime Martínez Verdú
  • 232. Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión Artificial8.1.2. Transformada de Fourier discreta.a) Transformada Discreta de Fourier unidimensional. Sea f(x) una función discreta de la variable real x, tal que x = 0, 1,..., N – 1 y f(x)toma valores discretos representando el nivel de gris del píxel x. Entonces, laTransformada Directa de Fourier Discreta de f(x), indicada por ℑ {f(x)}, se define porla siguiente ecuación: N −1 − j 2π ux ℑ{ f ( x )} = F (u ) = ∑ f (x )e 1 N (5) N x=0 Entonces, la Transformada Directa de Fourier discreta de la imagen consiste enuna función F(u) tal que u = 0, 1,..., N – 1. Dada una F(u), podemos hallar f(x) empleando la Transformada Inversa deFourier Discreta, cuya expresión es la siguiente: N −1 + j 2π ux ℑ−1 {F (u )} = f ( x ) = ∑ F (u )e N (6) u =0 Entonces, la Transformada Inversa de Fourier discreta de la imagen consiste enuna función f(x) tal que x = 0, 1,..., N – 1. Las ecuaciones anteriores, denominadas par de Transformadas Discretas deFourier, existen siempre y cuando f(x) sea una función discreta y sumable y F(u) seasumable (aspectos que se satisfacen casi siempre en la práctica). La variable u hacereferencia a la frecuencia, esta vez, discretizada. Los valores u = 0, 1,…, N – 1 de la Transformada de Fourier corresponden a lasmuestras de la transformación continua en valores 0, ∆u, 2∆u,…, (N – 1)∆u. Es decir, lafunción F(u) representa en realidad F(u∆u). Los términos ∆u y ∆x están relacionadosentre sí a través de la siguiente expresión: 1 ∆u = (7) N∆xb) Transformada Discreta de Fourier bidimensional. Sea f(x,y) una imagen en nivel de gris, con x = 0, 1,..., N – 1 e y = 0, 1,..., N – 1;y f(x,y) toma valores discretos representando el nivel de gris del píxel (x,y). Entonces, laTransformada Directa de Fourier Discreta de la imagen consiste en una función F(u,v)tal que u = 0, 1,..., N – 1 y v = 0, 1,..., N – 1: M −1 N −1  ux vy  − j 2π  +  ℑ{ f ( x, y )} = F (u , v ) = ∑∑ f (x, y )e 1 M N  (8) MN x =0 y =0 4Física de la Visión Jaime Martínez Verdú
  • 233. Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión Artificial Para el caso cuando las imágenes se muestrean con una distribución cuadrada(M = N), tenemos la siguiente expresión: N −1 N −1 ux + vy − j 2π ℑ{ f ( x, y )} = F (u , v ) = f ( x, y )e 1 N ∑∑ x =0 y =0 N (9) Dada una F(u,v), podemos hallar f(x,y) empleando la Transformada Inversa deFourier Discreta, cuya expresión es la siguiente: M −1 N −1  ux vy  + j 2π  +  ℑ−1 {F (u , v )} = f ( x, y ) = ∑∑ F (u, v )e M N  (10) u = 0 v =0 Para el caso cuando las imágenes se muestrean con una distribución cuadrada(M = N), tenemos la siguiente expresión: N −1 N −1 ux + vy + j 2π ℑ−1 {F (u , v )} = f ( x, y ) = ∑∑ F (u, v )e 1 N (11) N u =0 v=0 Las ecuaciones anteriores, denominadas par de Transformadas de Fourier,existen siempre y cuando f(x,y) sea una función discreta y sumable y F(u,v) sea sumable(aspectos que se satisfacen casi siempre en la práctica). Las variables u y v hacenreferencia a la frecuencia. Los incrementos de muestrea en los dominios espacial y de frecuencia estánrelacionados por: 1 1 ∆u = ∆v = (12) M∆x N∆y Figura 8.1. Ejemplos de algunas de espectros Transformadas de Fourier. 5Física de la Visión Jaime Martínez Verdú
  • 234. Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión Artificial8.1.3. Algunas propiedades de la Transformada de Fourier discreta.Propiedad I: Separabilidad. Esta propiedad de la Transformada de Fourier (DFT, del inglés «DiscreteFourier Transform») esta relacionada con la posibilidad de calcular la DFT de unafunción bidimensional como una combinación de dos Transformadas de Fourier,calculando primero una DFT sobre la variable de uno de los ejes y al resultado aplicarlede nuevo la DFT sobre la variable del otro eje. La ventaja que aporta esta propiedad es el hecho de poder obtener latransformada F(u,v) o la inversa f(x,y) en dos pasos consecutivos, mediante la aplicaciónde la Transformada de Fourier unidimensional o su inversa: Transformada de cada una Transformada de cada una de sus columnas de sus filas N −1 − j 2π ux N −1 − j 2π vy F (u , v ) = ∑ F (x, v )e F (u , v ) = ∑ F (u, y )e 1 M 1 M (13) (14) N x=0 N y =0 donde F(x,v) es donde F(u,y) es 6444744filas8 TFD a cada una de sus 4 TFD a cada una de sus columnas 644474448 1 N −1 − j 2π vy   1 N −1 − j 2π ux  F ( x, v ) = N · ∑ f ( x, y )e N  F (u , y ) = N · ∑ f ( x, y )e N   N y =0   N x=0  TFD de filas-columnas TFD de columnas-filas Por tanto, la transformada de la matriz f(x,y) se ha realizado, calculando primerola transformada unidimensional a cada una de sus filas y multiplicando el resultado porN. Posteriormente, se calcula la transformada a cada una de las columnas de la matrizF(x,v). De igual modo, podemos obtener idénticos resultados tomando primero lastransformadas a lo largo de las columnas de f(x,y) y luego sobre las filas de eseresultado. Demostración.FILAS − COLUMNAS : N −1 − j 2π ux N −1  N −1  − j 2π vy  − j 2π ux  1 N −1 N −1 − j 2π vy − j 2π uxF (u , v ) = ∑ F (x, v )e ∑  ∑  f (x, y )e ∑∑ f (x, y )e 1 1 e M  M = N = N e M = N N     N x =0 x =0  y =0    x =0 y = 0 N −1 N −1 ux +vy − j 2π ∑∑ f (x, y )e = F (u, v ); 1= N N x=0 y =0COLUMNAS − FILAS : N −1 − j 2π vy N −1  N −1  − j 2π ux  − j 2π M  1 vy N −1 N −1 − j 2π vy − j 2π uxF (u , v ) = ∑ F (u, y )e  ∑  f (x, y )e f (x, y )e 1 1 N M = N ∑  x =0  N   e =  N ∑∑ N e M = y =0 y =0     y =0 x =0 N −1 N −1 ux +vy − j 2π f (x, y )e = F (u, v ); 1= N ∑∑ x=0 y =0 N 6Física de la Visión Jaime Martínez Verdú
  • 235. Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión Artificial (0,0) (0, N − 1) y (0,0) (0, N − 1) y (0,0) (0, N − 1) y f ( x, y ) F ( x, v ) F (u , v )(N − 1,0 ) (N − 1,0 ) (N − 1,0 ) DFT de las filas y Multiplicación por N. DFT de las columnas. x x x (a) (0,0) (0, N − 1) y (0,0) (0, N − 1) y (0,0) (0, N − 1) y f ( x, y ) F (u, y ) F (u , v )(N − 1,0 ) (N − 1,0 ) (N − 1,0 ) DFT de las columnas y Multiplicación por N. DFT de las filas. x x x (b) Figura 8.2. Obtención de la Transformada de Fourier bidimensional como una serie de transformadas unidimensionales; (a) FILAS-COLUMNAS; (b) COLUMNAS-FILAS. 7Física de la Visión Jaime Martínez Verdú
  • 236. Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión ArtificialPropiedad II: Traslación. Las propiedades de traslación del par de transformadas de Fourier son: u 0 x + v0 y ux0 + vy0 + j 2π − j 2π f ( x, y )e N ⇔ F (u − u0 , v − v0 ) y f ( x − x0 , y − y0 ) ⇔ F (u, v )e N (15) Por tanto, podemos decir que multiplicar por dicha exponencial en el dominio dela imagen f(x,y) provoca un desplazamiento del centro de su transformada directa alpunto (u0,v0). Por otro lado, multiplicar por la segunda exponencial en el dominio de latransformada F(u,v) tiene como resultado un traslado del centro de su transformadainversa al punto (x0,y0). Un caso particular de esta propiedad consiste en mover el origen de laTransformada de Fourier de f(x,y) al centro de la matriz N × N que le corresponda, esdecir, al punto (N/2,N/2). Para ello, podemos hacer uso de que: u 0 x + v0 y + j 2π f ( x, y )e N ⇔ F (u − u0 , v − v0 ) N N x+ y u 0 x + v0 y x+ y + j 2π 2 ( )( 2 + j 2π + j 2π x+ y)f ( x, y )e ⇒ f ( x, y )e = f ( x, y )e = f ( x, y ) e + jπ = f (x, y )(− 1) N N 2 (x+ y )  N f ( x, y )(− 1) (x + y ) N ⇔ Fu − ,v −   2 2 Así, el origen de la Transformada de Fourier de f(x,y) puede ser desplazado hastael centro de su correspondiente cuadrado de frecuencias N × N multiplicando f(x,y) sólopor (-1)x+y (es decir, negando píxeles de la imagen f(x,y) alternativamente). También cabe resaltar, que un desplazamiento en la función f(x,y), no provocaráun cambio en la magnitud de su transformada de Fourier. Véase esto matemáticamenteen la siguiente expresión: ux 0 + vy 0 ux 0 + vy 0 ux 0 + vy 0 ( ) − j 2π − j 2π ux 0 + vy 0F (u , v )e = F (u, v )· e = F (u , v )· e − jπ = F (u , v )· (− 1) = F (u , v ) 2 2 N N N N (a) (b) (c) Figura 8.3. Resultados de la traslación; (a) Imagen simple; (b) Espectro de Fourier sin desplazamiento; (c) Espectro de Fourier desplazado hacia el centro. 8Física de la Visión Jaime Martínez Verdú
  • 237. Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión ArtificialPropiedad III: Periodicidad y simetría conjugada. Por tanto, gracias a esta propiedad de simetría, para calcular la magnitud de lospuntos de un periodo completo, tan sólo necesitamos calcular los N/2 + 1 primerospuntos, siempre y cuando el origen de la transformada este centrado en el punto(N/2,N/2). Para conseguir este movimiento del origen en la transformada, podemos aplicarla propiedad de traslación. F (u , v ) = F (u + N , v ) = F (u , v + N ) = F (u + N , v + N ) (16) Si f(x,y) es real, una característica interesante es que la Transformada de Fourierpresenta también simetría conjugada y los módulos coinciden: F (u , v ) = F * (− u ,−v ) y F (u , v ) = F (− u ,−v ) (17) Demostraciones: (u + N ) x + vy ux + vy 1 N −1 N −1 − j 2π N −1 N −1 − j 2π − j 2π• F (u + N , v ) = ∑∑ f ( x, y )e f ( x, y )e 1 N x =0 y =0 N = N ∑∑ x =0 y =0 N = ux + vy ux + vy (e ) N −1 N −1 − j 2π N −1 N −1 − j 2π ∑∑ f (x, y )e ∑∑ f (x, y )e 1 − j 2π 1 − jπ 2= N e = N = N x =0 y =0 N x =0 y =0 N −1 N −1 ux + vy N −1 N −1 ux + vy − j 2π − j 2π f ( x, y )e (− 1)2 = f ( x, y )e = F (u , v ) 1 1= N ∑∑ x =0 y =0 N N ∑∑ x =0 y =0 N N −1 N −1 ux + ( v + N ) y N −1 N −1 ux + vy − j 2π − j 2π − j 2π• F (u , v + N ) = ∑∑ f (x, y )e ∑∑ f (x, y )e 1 1 N = N = N x =0 y =0 N x =0 y =0 ux + vy ux + vy (e ) N −1 N −1 − j 2π N −1 N −1 − j 2π f ( x, y )e f ( x, y )e 1 1= N ∑∑ x =0 y =0 N − j 2π e = N ∑∑ x =0 y =0 N − jπ 2 = N −1 N −1 ux + vy N −1 N −1 ux + vy − j 2π − j 2π f ( x, y )e (− 1)2 = f ( x, y )e = F (u , v ) 1 1= N ∑∑ x =0 y =0 N N ∑∑ x =0 y =0 N N −1 N −1 − j 2π (u + N ) x + ( v + N ) y N −1 N −1 − j 2π ux + vy − j 4π• F (u + N , v + N ) = ∑∑ f (x, y )e ∑∑ f (x, y )e 1 1 N = N = N x =0 y =0 N x =0 y =0 ux + vy ux + vy (e ) N −1 N −1 − j 2π N −1 N −1 − j 2π f ( x, y )e f ( x, y )e 1 1= N ∑∑ x =0 y =0 N − j 4π e = N ∑∑ x =0 y =0 N − jπ 4 = N −1 N −1 ux + vy N −1 N −1 ux + vy − j 2π − j 2π ∑∑ f (x, y )e (− 1) = 1 ∑∑ f (x, y )e = F (u , v ) 1= N 4 N N x =0 y =0 N x =0 y =0 N −1 N −1 − ux − vy N −1 N −1 ux + vy − j 2π + j 2π• F (− u ,−v ) = f ( x, y )e f ( x, y )e = F * (u , v ) 1 1 N ∑∑ x =0 y =0 N = N ∑∑ x =0 y =0 N N −1 N −1 ux + vy N −1 N −1 − j 2π• F (u , v ) = f ( x, y )e ∑∑ f (x, y ) 1 1 N ∑∑ x =0 y =0 N = N x=0 y =0 N −1 N −1 − ux − vy N −1 N −1 − j 2π• F (− u ,−v ) = f ( x, y )e ∑∑ f (x, y ) 1 1 N ∑∑ x =0 y =0 N = N x =0 y =0 9Física de la Visión Jaime Martínez Verdú
  • 238. Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión ArtificialPropiedad IV: Rotación. Si rotamos la función f(x,y) un ángulo determinado α, la Transformada deFourier también se verá afectada por una rotación del mismo ángulo α. Esta propiedadtambién se da a la inversa, es decir, si la Transformada se rota en un determinado ánguloβ, la Transformada Inversa también se verá rotada ese mismo ángulo β. Si introducimos las coordenadas polares: x = r cos(θ ) x = r sin (θ ) u = ρ cos(φ ) v = ρ sin (φ ) Entonces f(x,y) y F(u,v) se convierten en f(r,θ) y F(ρ, φ ), respectivamente. Lasustitución directa en el par de transformadas de Fourier proporciona lo siguiente: f (r ,θ + α ) ⇔ F (ρ ,φ + α ) (18) (a) (b) (c) (d)Figura 8.4. Propiedades de rotación de la Transformada de Fourier; (a) Imagen simple;(b) Espectro de la imagen simple; (c) Imagen girada; (d) Espectro de la imagen girada. 10Física de la Visión Jaime Martínez Verdú
  • 239. Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión ArtificialPropiedad V: Distributividad y cambio de escala. De la definición del par de Transformadas de Fourier continuas o discretas, setiene que ambas son distributivas respecto a la suma: ℑ{ f1 ( x, y ) + f 2 ( x, y )} = ℑ{ f1 ( x, y )}+ ℑ{ f 2 ( x, y )} (19) Para dos escalares a y b, tenemos que: af ( x, y ) ⇔ aF (u, v ) y (20) 1 u v f (ax, by ) ⇔ F ,  ab  a b  Demostración: N −1 N −1 ux + vy − j 2π ℑ{ f1 ( x, y ) + f 2 ( x, y )} = ∑∑ [ f1 (x, y ) + f 2 (x, y )]e 1 N = N x =0 y =0 ux + vy ux + vy N −1 N −1 − j 2π − j 2π  ∑∑0  f1 (x, y )e + f 2 ( x, y )e 1 = N N = N x =0 y =   N −1 N −1 ux + vy N −1 N −1 ux + vy − j 2π − j 2π ∑∑ f (x, y )e ∑∑ f (x, y )e = ℑ{ f1 ( x, y )} + ℑ{ f 2 ( x, y )} 1 1 = 1 N + 2 N N x =0 y =0 N x =0 y =0 ux + vy ux + vy 1 N −1 N −1 − j 2π 1 N −1 N −1 − j 2π ℑ{ f1 ( x, y )} = ∑∑ f1 ( x, y )e N ℑ{ f 2 ( x, y )} = ∑∑ f 2 ( x, y )e N N x =0 y = 0 N x =0 y =0 + = (a) (b) (c) + = (d) (e) (f)Figura 8.5. Ejemplo gráfico de la propiedad de Distributividad: La suma de imágenes en el espacio (a) + (b) = (c) se traslada también a la frecuencia (d) + (e) = (f). 11Física de la Visión Jaime Martínez Verdú
  • 240. Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión ArtificialPropiedad VI: Valor medio. Una definición ampliamente utilizada del valor promedio de una funcióndiscreta de dos dimensiones es: N −1 N −1 1 < f ( x, y ) > = ∑ ∑ f ( x, y ) (21) N2 x=0 y =0 Esta expresión se puede calcular a partir de la transformada de Fourier, sin másque sustituir en la función F(u,v) para el punto (0,0). Por tanto, el valor promedio sepuede expresar matemáticamente en función de la transformada de Fourier, como sigue: N −1 N −1 ux + vy N −1 N −1 − j 2π F (u , v ) = f ( x, y )e Si u = v→ F (0,0 ) = ∑∑ f (x, y ) 1 1 N ∑∑ x =0 y =0 N  0 y =0 N x =0 y =0  1 N −1 N −1  F (0,0 ) = N  2 ∑∑ f ( x, y )  ⇒ F (0,0 ) = N < f ( x, y ) >  N x =0 y =0  Por consiguiente, el valor medio está relacionado con la transformada de Fourierde f(x,y) por la siguiente expresión: < f ( x, y ) >= F (0,0 ) 1 (22) NPropiedad VII: Laplaciano. El laplaciano de una función de dos variables f(x,y) se define como: ∂2 ∂2 ∇ 2 f ( x, y ) = f ( x, y ) + 2 f ( x , y ) (23) ∂x 2 ∂y De la definición de la transformada de Fourier bidimensional, se tiene losiguiente: { } ℑ ∇ 2 f ( x, y ) ⇔ −(2π ) u 2 + v 2 F (u, v ) 2 ( ) (24) El operador laplaciano es útil para delimitar los bordes de una imagen.Propiedad VIII: Convolución y correlación. La convolución de dos funciones f(x) y g(x), indicada por f(x)∗ g(x) se definemediante la siguiente integral: f (x ) ∗ g (x ) = ∫ f (α )g ( x − α )dα ⇔ F (u )G (u ) +∞ (25) −∞ Donde α es una variable ficticia para la integración. 12Física de la Visión Jaime Martínez Verdú
  • 241. Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión Artificial La correlación de dos funciones continuas f(x) y g(x), representada por f(x)∗ g(x)se define mediante la siguiente integral: +∞ f (x ) o g (x ) = ∫ f ∗ (α )g ( x + α )dα ⇔ F ∗ (u )G (u ) (26) −∞ * donde α es una variable ficticia para la integración y hace referencia alconjugado complejo.8.1.4. Transformada Rápida de Fourier. El número de multiplicaciones complejas y sumas que se necesitan paraimplementar la Transformada de Fourier es proporcional a N2. La descomposiciónapropiada de la misma puede hacer que el número de multiplicaciones y sumas seaproporcional a N log2(N). Dicho procedimiento de descomposición se denominaAlgoritmo de la Transformada Rápida de Fourier (FFT, del inglés «Fast FourierTransform»). Evidentemente, la aproximación de la FFT proporciona una apreciableventaja de cálculo sobre la resolución directa de la transformada de Fourier, en especialcuando N es relativamente grande. Transformada Transformada Mejora N de Fourier directa Rápida de Fourier de cálculo 2 4 2 2,00 4 16 8 2,00 8 64 24 2,67 16 256 64 4,00 32 1.024 160 6,40 64 4.096 384 10,67 128 16.384 896 18,29 256 65.536 2.048 32,00 512 262.144 4.608 56,89 1.024 1.048.576 10.240 102,40 2.048 4.194.304 22.528 186,18 4.096 16.777.216 49.152 341,33 8.192 67.108.864 106.496 630,15 Tabla 8.1. Comparación entre N2 y N log2(N) para varios valores de N.8.1.5. Representación del logaritmo del espectro de Fourier. El espectro de Fourier suele tener un rango mucho mayor que los usuales paramostrar una imagen. Una técnica usual para evitar esto es considerar el logaritmo delespectro usando la siguiente fórmula: D (u , v ) = C log (1 + F (u , v ) ) (27) donde C es una constante adecuada de reescalado de la imagen, que se aplicapara obtener valores dentro de la paleta de colores disponible. 13Física de la Visión Jaime Martínez Verdú
  • 242. Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión Artificial8.2. Aplicaciones de la Transformada de Fourier.a) Aplicación: Analizador de texturas. Textura Bosque Textura de territorio en barbecho Textura campo Textura de plantaciones Textura de ciudad Textura de aguaFigura 8.6. Demostración de las diferentes transformaciones de Fourier de cada textura.b) Aplicación: Ruido. Además de la utilización de la Transformada de Fourier para la diferenciación deterrenos, es común su utilización para filtrar el ruido de una imagen. Si una señalcontiene ruido, al pasar al análisis de frecuencias mediante la Transformada de Fourier,dicho ruido implicará una serie de valores altos correspondientes a frecuencias altas,correspondiendo a "picos" en la Transformada de Fourier. 14Física de la Visión Jaime Martínez Verdú
  • 243. Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión Artificial Se desea, por tanto, anular el valor del ruido o, dicho de otra manera, eliminarlos picos que aparecen al operar con la transformada. Una convolución en el dominioespacial corresponde a una multiplicación en el dominio de la frecuencia por lo que, así,una alternativa es, en el dominio del espacio, convolucionar la señal con un filtro. Noobstante, también existe la posibilidad de trabajar en el dominio frecuencial puesto quepodremos eliminar el ruido anulando las regiones donde aparezcan los picos. (a) (b) (c) Figura 8.7. (a) Imagen con ruido; (b) Espectro de Fourier; (c) Picos de ruido. En el dominio espacial podemos observar que existen básicamente dos tipos deruido, ambos aproximadamente diagonales. Por otro lado, en el dominio espectral deFourier, podemos identificar fácilmente este ruido como se muestra en la figura 8.7 b. Como en este caso la operación es asimétrica en módulo, cada frecuencia deruido corresponde a dos picos. Podemos observar la aparición de cuatro pares de picosdispuestos sobre el origen señalados en la figura 8.7 c. Los dos pares de picos solitarios (alejados del origen) corresponden a ruidos pocos perceptibles en el dominio del espacio. Lo que se desea hacer, por lo tanto, es la ecualización de la señal en el caso bidimensional discreto. Cabe precisar que no es Figura 8.8. (a) Eliminación de ruidos en frecuencias; (b) Imagen resultante. interesante poner a cero elpico central, pues este pico esto corresponde a la frecuencia nula, que efectivamente noes ruido. Muchas veces existe una frecuencia predominante en la imagen que pareceruido, pero aparece por propia naturaleza de la imagen. La transformada de Fourier nospermite identificar con exactitud cuales son los picos que debemos eliminar.Multiplicando ambas transformadas podemos observar que el resultado de eliminardeterminadas regiones es parecido a la transformada de Fourier de la imagen original,exceptuando las modificaciones antes dichas. Finalmente, aplicando la transformadainversa obtenemos la imagen donde el ruido se ha reducido considerablementeFigura 8.8 b. 15Física de la Visión Jaime Martínez Verdú
  • 244. Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión Artificialc) Aplicación: Detección de bordes. La Transformada de Fourier es ampliamente utilizada para el proceso dedetección de bordes de una imagen puesto que ésta es una eficaz y rápida solución alproblema que presenta en muchos casos encontrar los distintos límites entre objetos. (a) (b) (c) (d) Figura 8.9. Proceso de detección de bordes: (a) Imagen original; (b) Espectro de Fourier; (c) Eliminación de frecuencias bajas; (d) Imagen resultante. Eliminando las bajas frecuencias conseguiremos, mediante la TransformadaInversa, los bordes de la imagen original. Sin embargo, si eliminamos las frecuenciasaltas, habremos conseguido una imagen más nítida. 16Física de la Visión Jaime Martínez Verdú
  • 245. Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión Artificial8.3. Transformada de Hough. En esta sección vamos a enlazar aquellos puntos de borde que caigan sobre unadeterminada curva con determinada forma. y b b = −x ja + y j ( xi , y i ) b = − xi a + yi b0 (x , y ) j j x a0 a (a) (b) Figura 8.10. (a) Plano xy; (b) Espacio parámetro. Supongamos que para n puntos de la imagen, se desean encontrar aquellossubconjuntos de puntos que caen en líneas rectas. Una posible solución podría ser, enprimer lugar, encontrar todas las líneas determinadas por cada par de puntos y entoncesencontrar todos los subconjuntos de puntos que están cerca de cada recta en particular.Este problema así planteado requiere encontrar n(n − 1)/2 ~ n2 rectas y realizarn(n(n − 1))/2 ~ n3 comparaciones de cada punto a cada línea. Este método será inviablesalvo en casos triviales. Una alternativa a este método de búsqueda exhaustiva es la Transformada deHough. Consideramos un punto (xi,yi) y la ecuación de la recta, de la forma de lapendiente y ordenada en el origen, yi = axi + b (28) Por el punto (xi,yi) pasan infinitas rectas, pero todas satisfacen la ecuaciónanterior para diferentes valores de a y b. Sin embargo, escribiendo esta ecuación en laforma b = −axi + yi (29) y considerando el plano ab (también denominado espacio parámetro) da lugar auna única recta para el par (xi,yi) constante. Si ahora consideramos un segundo punto(xj,yj), también va a tener su recta asociada en el espacio parámetro. Estas dos rectas se cortarán en el espacio parámetro en un punto (a0,b0), dondea0 es la pendiente y b0 la ordenada en el origen de la recta que contiene a los puntos(xi,yi) y (xj,yj) en el plano xy, como se puede ver en la figura 8.10 b. De hecho, todos lospuntos de esa recta en el plano xy darán lugar a rectas diferentes en el espacio parámetroque se cortan en un único punto (a0,b0). 17Física de la Visión Jaime Martínez Verdú
  • 246. Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión Artificial El atractivo de la Transformada de Hough proviene de subdividir el espacioparámetro en celdas acumuladoras, como se puede ver en la figura 8.11, donde(amín,amáx) y (bmín,bmáx) son los rangos esperados para la pendiente y la ordenada en elorigen. La celda de coordenadas (i,j), con un valor de acumulador A(i,j) corresponde alcuadrado asociado con las coordenadas (ai,bj) del espacio parámetro. Inicialmente seponen todos los acumuladores a cero. Entonces para cada punto (xk,yk) de la imagen,permitimos que el parámetro a pueda tomar cualquier valor de entre los ai permitidos ycalculamos b usando la ecuación (29). Los valores resultantes para el parámetro b seredondean hasta los bj permitidos. Si para un valor ap resultó un valor bq se tiene que A( p, q ) = A( p, q ) + 1 (30) b b máx b mín a mín a máx a Figura 8.11. Celdas acumuladoras en el espacio parámetro. Al final, un valor de M en el acumulador A(i,j) significa que M puntos del planoxy caen sobre la recta y = aix + bj. La precisión en la colinealidad de estos puntosdepende del número de celdas del espacio parámetro. Si subdividimos el eje a en K celdas, para cada punto (xk,yk), obtenemos Kvalores de b correspondientes a los K posibles valores de a. Si la imagen tiene n puntos,la carga computacional es del orden de n·K. La transformada de Hough es lineal en n, yel producto n·K es mucho menor que si hubiéramos empleado una búsqueda exhaustiva,a menos que K sea del orden o exceda a n. Un problema que surge al emplear la ecuación de la recta y = ax + b pararepresentar una línea es que tanto la pendiente como la ordenada en el origen puedenllegar a valer infinito, según la línea se hace vertical. Una forma de solventar esteproblema consiste en utilizar la representación en coordenadas polares de la recta: x cos(θ ) + y sin (θ ) = ρ (31) En la figura 8.12 a se puede ver el significado de los nuevos parámetros (ρ,θ). Eluso de esta representación para construir la tabla de acumuladores es similar al métodoexplicado para las rectas en la forma pendiente y ordenada en el origen. A cada puntodel plano xy corresponde ahora una sinusoide en el plano ρθ en lugar de una recta. Aligual que antes, M puntos colineales a la recta xcos (θj) + ysin (θj) = ρi darán lugar a Msinusoides que se cortan en el punto (ρj,θi) en el espacio de parámetros. Incrementando θy calculando ρ, obtendremos M entradas en el acumulador A(i,j) correspondiente al par(ρj,θi). 18Física de la Visión Jaime Martínez Verdú
  • 247. Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión Artificial y ρ ρ máx ρ θ θ ρ mín x θ mín θ máx (a) (b)Figura 8.12. (a) Representación normal de una recta; (b) Celdas acumuladoras en el espacio θ. En la figura 8.12 b podemos ver la tabla de acumuladores del espacio deparámetros en este caso. El rango para el ángulo θ es ±90º, medido con respecto al ejede abscisas. Se permiten valores negativos de ρ para rectas por detrás del origen decoordenadas del plano xy. Por ejemplo, una recta horizontal corresponde a un valor de θ= 0º y un valor de ρ igual a la ordenada en el origen, mientras que una recta verticalcorresponde a un valor de θ = 90º y un valor de ρ igual a la abscisa en el origen. Aunque hemos hecho un análisis para el caso de rectas, la transformada deHough también es aplicable a cualquier función de la forma g (v, c ) = 0 (32) donde v es un vector de coordenadas y c es un vector de coeficientes. Porejemplo, puntos que caen en el círculo (x − c1 )2 + ( y + c2 )2 = c32 (33) se pueden detectar empleando también la transformada de Hough. En este casotenemos tres parámetros (c1,c2,c3), lo que dará lugar a un espacio de parámetros de tresdimensiones, con celdas con forma de cubo y acumuladores de la forma A(i,j,k). Elprocedimiento en este caso es para cada punto del plano xy, para cada c1 y para cada c2calcular el valor de c3 y actualizar el acumulador correspondiente a (c1,c2,c3).Claramente la complejidad de la Transformada de Hough es claramente dependiente deltamaño del espacio de parámetros. En el caso de que el objeto tenga una forma irregular hemos de seguir lossiguientes pasos: 1. Construir la tabla-R del objeto. 2. Discretizar xref , yref y φ. 3. Generar acumulador A(xref , yref , φ). 4. Para todo los punto del borde (xi , yj). a) calcular Ω. b) para cada φ. 5. Para cada par (r, β) indexar ω − φ en R. a evaluar xref = xi + r cos(β + φ) y yref = yi + r sin(β + φ) b incrementar A(xref , yref , φ).. 19Física de la Visión Jaime Martínez Verdú
  • 248. Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión Artificial8.4. Aplicaciones a la Transformada de Hough. Roque no he encontrado nada sobre esto se que se utiliza para bordes y demáspero no he encontrado nada de teoría. 20Física de la Visión Jaime Martínez Verdú
  • 249. Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión Artificial8.5. Bibliografía. Tratamiento Digital de Imágenes. Rafael C. González, Richard E. Woods. Visión por Computador. Gonzalo Pajares, Jesús M. de la Cruz. 21Física de la Visión Jaime Martínez Verdú
  • 250. Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión Artificial Visión por Computador. Javier González Jiménez. 22Física de la Visión Jaime Martínez Verdú
  • 251. BLOQUE II: SISTEMAS DE VISIÓN ARTIFICIAL.TEMA IX: Detección de bordes.9.1. Introducción 1 9.1.1. Conceptos básicos sobre la detección de bordes 1 9.1.2. La operación Convolución 39.2. Operadores basados en máscaras direccionales 6 9.2.1. Operadores de Kirsch 6 9.2.2. Operadores de Robinson 109.3. Operadores basados en la primera derivada: Gradiente 14 9.3.1. Operadores basados en la definición de gradiente 15 9.3.2. Operadores de Prewitt 19 9.3.3. Operadores de Sobel 249.4. Operadores basados en la segunda derivada: Laplaciano 289.5. Operador de Canny 309.6. Problemas en los operadores para la detección de bordes 329.7. Bibliografía 33
  • 252. Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial9.1. Introducción.9.1.1. Conceptos básicos sobre detección de bordes. En el tema de Tratamiento Digital de Imágenes, dada una imagen, lo quedeseábamos obtener era la propia imagen, una aproximación, o una versión mejorada dela imagen original empleando para ello operaciones aritméticas, lógicas o morfológicas.Otra parte del Procesamiento Digital de Imágenes se encarga del análisis de las mismas.Ahora, dada una imagen, lo que deseamos obtener es una descripción de dicha imagen.Los siguientes casos son ejemplos de problemas de análisis de imágenes: • Dado un texto, reconocer las palabras. • Dada una imagen aérea de un terreno, clasificar los distintos tipos de suelos (urbano, bosque, lagos, carreteras,...). • Para aplicaciones relacionadas con Sistemas de Control de Calidad o de Producción,... • Dada una imagen médica, detectar tumores, roturas de huesos,... En todos estos ejemplos, el análisis va orientado a detectar determinadas partesde la imagen (regiones u objetos). Para generar tal descripción es necesario detectaradecuadamente e identificar la región deseada. En este tema, centraremos nuestraatención en la detección de fronteras o bordes. Una de las informaciones más útiles que se encuentran en una imagen laconstituyen los bordes ya que al delimitar los objetos, definen los límites entre cada entede la imagen. La información adquirida durante el proceso de detección de bordes laemplearemos posteriormente durante el proceso de segmentación. En el perfil se observa que existen dos fronteras teóricas pues existe una transición del negro a blanco y del blanco al negro. Niveles de gris A A SECCIÓN A-A Figura 9.1. Distribución unidimensional de niveles de gris de la sección de un anillo. 1Física de la Visión Jaime Martínez Verdú
  • 253. Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial Si observamos en la figura anterior, nos podemos fijar que el borde no aparececomo una variación del nivel de gris de 0 a 255 de una forma instantánea sino que serepresenta con forma de variación gradual dando lugar a un pico o punto máximo querepresentaría el lugar geométrico del borde ideal (un borde ideal sería una líneaunidimensional, es decir, sin "espesor"). Las técnicas de detección de bordes tienen por objeto la localización de lospuntos donde se produce variación de intensidad, pudiendo emplearse para ello métodosbasados en "operadores derivada". Estás técnicas son de gran importancia puesto que,siendo capaces de precisar la posición de un borde, lograremos delimitar objetos. P α B A 0 A Nivel de gris bajo B Nivel de gris alto P Punto medio de la rampa α Ángulo de inclinación H Variación de la intensidad, H = B - A Figura 9.2. Modelo unidimensional y continuo de un borde ideal. Tal y como podemos intuir en la gráfica anterior, existe un estrecho vínculoentre la nitidez de un borde y el ángulo α. Para variaciones de intensidad con pendientespróximas a 90º la nitidez será elevada (una mejor localización del borde) mientras quepara pendientes pequeñas el borde aparecerá difuminado y con poca definición. En las imágenes reales los bordes nunca se ajustan totalmente al modeloanterior. Las causas de ello son diversas, pudiendo destacar las siguientes: • El muestreo de una imagen implica que la imagen resultante sea discreta. • Las imágenes tratadas generalmente están afectadas por ruidos diversos. • El origen de los bordes puede ser diferente: borde de oclusión, superficie de diferente orientación, distinta textura, defectos de la iluminación,… Las circunstancias anteriores introducen una gran complejidad a la hora dedetectar los bordes de una imagen. En particular, en este proceso se consideran tres tiposde errores: (a) (b) (c) (d) Figura 9.3. Defectos en la detección y localización de un borde. (a) Borde real; (b) Detección pobre; (c) Localización pobre; (d) Múltiple respuesta. 2Física de la Visión Jaime Martínez Verdú
  • 254. Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial A continuación, describiremos cada uno de los errores que se pueden presentaren una imagen: • Error en la detección: Un operador es un buen detector de bordes si laprobabilidad de detectar el borde es alta cuando éste realmente existe en la imagen, ybaja cuando no existe (Figura 9.3. b). • Error en la localización: Un operador sitúa bien un borde cuando la posicióndel borde detectado coincide con la posición real del borde en la imagen (Figura 9.3. c). • Respuesta múltiple: Varios píxeles son detectados como un único bordeprovocando un ensanchamiento y una disminución de la precisión (Figura 9.3. d). En general, no hay forma de conocer si los píxeles detectados como parte delborde son correctos o no (intuitivamente hablando). Sin embargo, en algunos casos,podemos conocer si un detector de bordes se ha equivocado al detectar un píxel comoparte del borde. Es lo que se llama falso positivo (el detector devuelve un píxel cuandoen realidad no pertenecía a ningún borde) y falso negativo (el detector no devuelve unpíxel cuando en realidad pertenecía a un borde). Una manera posible de evaluar si un detector de bordes es eficiente o no, vienedada por la siguiente función, conocida como Función de Pratt: PD 1 1 R= ∑ 1 + β ·d 2 máx(PD , PI ) i =1 (1) i donde: • PD es la cantidad de píxeles que devuelve el detector de bordes. • PI es la cantidad de píxeles reales que pertenecen a un borde en la imagen. • di es la distancia horizontal entre el píxel i-ésimo del detector y el píxel más próximo del verdadero borde de la imagen. • β es una constante que se usa para reescalado. Lo normal es β = 1/9. d i = 2 unidades d i = 1 unidad (a) (b) Figura 9.4. Criterio de medición del parámetro β. El problema que presenta este evaluador es que se han de conocer los píxelesque realmente pertenecen a un borde. Existen otras aproximaciones que se basan en la "coherencia local". En estecaso, no se compara con el borde real de la imagen sino que, por el contrario, comparacada píxel detectado con sus vecinos. 3Física de la Visión Jaime Martínez Verdú
  • 255. Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial9.1.2. La operación Convolución. Una convolución bidimensional se puede expresar de la siguiente forma: f ( x, y ) ⊗ m(i, j ) = ∑∑ f (x − i, y − j ) ·m(i, j ) (2) i∈m j ∈m donde f(x,y) es el valor del píxel de la imagen y m es una subimagen llamadamáscara. Si suponemos lo siguiente: • La imagen tiene dimensiones N × M. • El dominio de la imagen es [1,N] × [1,M]. • La máscara tiene dimensiones 3 × 3 con el origen en el centro. entonces la nueva imagen tiene dimensiones (N + 2) × (M + 2) cuyo dominio es[0,N+1] × [0,M+1]. Por ejemplo, consideremos las siguientes matrices: 1 1 0 00 0 0  0 0 0  1 2 1 f ( x, y ) = 0 0 1 11  0 m(i, j ) =  0 0    0 0 1 11  −1 − 2  − 1  0  0 1 1 1  Entonces f (x, y ) ⊗ m(i, j ) es una nueva matriz g(x,y):  1 3 3 1 1 0 0  0 0 0 0 0 0 0    −1 − 3 − 2 2 2 3 1   g ( x, y ) =  0 0 1 3 3 3 1  0 0 0 0 0 0 0    0 0 −1 − 3 − 3 − 3 − 1  0 0 −1 − 3 − 3 − 3 − 1   donde, por ejemplo, g( 3,2 ) = f( 2 ,1 )m( 1,1 ) + f( 2 ,2 )m( 1,0 ) + f( 2 ,3 )m( 1,-1 ) + f( 3,1 )m( 0 ,1 ) + f( 3,2 )m( 0 ,0 ) + + f( 3,3 )m( 0 ,-1 ) + f( 4 ,1 )m(-1,1 ) + f( 4 ,2 )m(-1,0 ) + f( 4 ,3 )m(-1,-1 ) = 1 4Física de la Visión Jaime Martínez Verdú
  • 256. Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial A continuación enunciaremos los pasos a seguir para ejecutar una operación deconvolución:1º Ensanchar dos filas y dos columnas la matriz original, es decir, 0 0 0 0 0 0 0 0 0 1 1 0 0 0  1 1 0 0 0  0 0 0 0 0 0 0 0 0 0 0 0     f ( x, y ) = 0 ~ 0 1 1 1 f ( x, y ) = 0 0 0 1 1 1 0   0 0 0 1 1 1 0 0 1 1 1 0   0  0 1 1 1  0 0 0 1 1 1 0 0 0 0 0 0 0 0  2º Invertir la máscara, es decir, volcamos la máscara de izquierda a derecha y despuésde abajo a arriba (por ejemplo): a b c c b a  i h g m(i, j ) =  d  e f →f   e d →  f   e d  = m(i, j )  ~ g  h i   i  h g  c  b a Y para el ejemplo anterior, tenemos que  1 2 1  1 2 1  −1 − 2 − 1  0 m(i, j ) =  0 0→ 0 0 0→ 0 0 0 = m(i, j ) ~     −1 − 2  − 1   −1 − 2  − 1   1  2 1 3º Recorremos toda la matriz empleando la máscara ya invertida y, en cada elemento,realizamos un producto (elemento a elemento) de la máscara con esa zona de la matriz:  −1 − 2 − 1  0 0 0  0 0 0 0 0 0 0    1  2   1 0 1 1 0 0 0 0  0 0 0 0 0 0 0   3 0 0 0 1 1 1 0 0 0 0 1 1 1 0   0 0 0 1 1 1 0 0 0 0 0 0 0 0   El resultado de aplicar la máscara lo almacenamos en la imagen resultado, esdecir, la convolución no modifica la imagen original si no que el efecto de aplicar lamáscara de elemento en elemento, lo almacenamos en una nueva matriz querepresentará el resultado de la convolución. Nota: 5Física de la Visión Jaime Martínez Verdú
  • 257. Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial Cuando ese esté recorriendo la matriz con la máscara moveremos la máscara enbase a su centro sin salirnos del dominio de la imagen original, esto es, sin que el centrode la máscara salga de las "líneas discontinuas". 6Física de la Visión Jaime Martínez Verdú
  • 258. Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial9.2. Operadores basados en máscaras direccionales. Puesto que un borde ideal es esencialmente un patrón con forma de escalón, unmétodo eficaz de detectar los bordes consiste en correlacionar la imagen con patronesen todas las orientaciones posibles.9.2.1. Operadores de Kirsch. Los operadores de Kirsch se denominan también de brújula porque se definenconsiderando una máscara simple y rotándola en las ocho direcciones principales de labrújula: Norte, Noroeste, Oeste, Suroeste, Sur, Este y Noreste. Los operadores sedefinen como:  − 3 − 3 5 − 3 5 5  5 5 5  5 5 − 3 K0 = − 3 ; K =  − 3 0 5 1  0 ; K =  − 3 5 2  ; K =  5 0 − 3 3  0 − 3;   − 3 − 3 5   − 3 − 3 − 3   − 3 − 3 − 3   − 3 − 3 − 3   0º 45º 90º 135º (3) 5 − 3 − 3 − 3 − 3 − 3 − 3 − 3 − 3 − 3 − 3 − 3 K 4 = 5  0 − 3; K 5 =  5   0 − 3; K 6 = − 3   0 − 3; K 7 = − 3   0 5;  5 − 3 − 3    5  5 − 3   5  5 5  − 3  5 5  180º 225º 270º 315º Por ejemplo, un valor grande después de aplicar la primera máscara sobre unpíxel implica que existe un borde en sentido vertical (por tanto, un gradiente horizontal)en el píxel donde se ha aplicado la máscara. Para encontrar los bordes, se aplica cadauna de las máscaras en cada uno de los píxeles (se realiza una convolución con cadamáscara). La respuesta del detector de bordes es el máximo de las respuestas de cadauna de las ocho máscaras y la dirección sería pi/4 si Ki ha sido la máscara responsable dedicho máximo. En la siguiente figura podemos observar el resultado de aplicar operadoresKirsch a una imagen pudiendo apreciar que el resultado de los bordes es bastanteimpreciso por estar esto muy difuminados (respuesta múltiple). (a) (b)Figura 9.5. (a) Imagen original; (b) Imagen obtenida al aplicar los operadores de Kirsch. 7Física de la Visión Jaime Martínez Verdú
  • 259. Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial Código implementado utilizando MatLAB:function kirsch(A)[ f c ] = size(A);A( : , c + 1) = zeros( f , 1 );A( f + 1 , : ) = zeros( 1 , c + 1 );for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); endendfor i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); endendA( : , 1 ) = zeros( f + 1 , 1 );A( 1 , : ) = zeros( 1 , c + 1 );A( : , c + 2 ) = zeros( f + 1 , 1 );A( f + 2 , : ) = zeros( 1 , c + 2 );C = zeros( f + 2, c + 2 );B = zeros( 1 , 8 );k0 = [ 5 , –3 , –3 ; 5 , 0 , –3 ; 5 , –3 , –3 ];k1 = [ –3 , –3 , –3 ; 5 , 0 , –3 ; 5 , 5 , –3 ];k2 = [ –3 , –3 , –3 ; –3 , 0 , –3 ; 5 , 5 , 5 ];k3 = [ –3 , –3 , –3 ; –3 , 0 , 5 ; 5 , 5 , –3 ];k4 = [ –3 , –3 , 5 ; –3 , 0 , 5 ; –3 , –3 , 5 ];k5 = [ 5 , 5 , –3 ; 5 , 0 , –3 ; –3 , –3 , –3 ];k7 = [ 5 , 5 , 5 ; –3 , 0 , –3 ; –3 , –3 , –3 ];k8 = [ 5 , 5 , –3 ; 5 , 0 , –3 ; –3 , –3 , –3 ];valor = 0;for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1 B( 1 , 1 ) = A( i – 1 , j – 1 )*k0( 1 , 1 ) + A( i – 1, j )*k0( 1 , 2 ) + A( i – 1, j + 1 )*k0( 1 , 3 ) + + A( i , j – 1 )*k0( 2 , 1 ) + A( i , j )*k0( 2 , 2 ) + A( i , j + 1 )*k0( 2 , 3 ) + A( i + 1 , j – 1 )*k0( 3 , 1 ) + A( i + 1 , j )*k0( 3 , 2 ) + A( i + 1 , j + 1 )*k0( 3 , 3 ); B( 1 , 2 ) = A( i – 1 , j – 1 )*k1( 1 , 1 ) + A( i – 1, j )*k1( 1 , 2 ) + A( i – 1, j + 1 )*k1( 1 , 3 ) + + A( i , j – 1 )*k1( 2 , 1 ) + A( i , j )*k1( 2 , 2 ) + A( i , j + 1 )*k1( 2 , 3 ) + A( i + 1 , j – 1 )*k1( 3 , 1 ) + A( i + 1 , j )*k1( 3 , 2 ) + A( i + 1 , j + 1 )*k1( 3 , 3 ); B( 1 , 3 ) = A( i – 1 , j – 1 )*k2( 1 , 1 ) + A( i – 1, j )*k2( 1 , 2 ) + A( i – 1, j + 1 )*k2( 1 , 3 ) + + A( i , j – 1 )*k2( 2 , 1 ) + A( i , j )*k24( 2 , 2 ) + A( i , j + 1 )*k2( 2 , 3 ) + A( i + 1 , j – 1 )*k2( 3 , 1 ) + A( i + 1 , j )*83,2) + A( i + 1 , j + 1 )*k2( 3 , 3 ); B(1,4) = A( i – 1 , j – 1 )*k3( 1 , 1 ) + A( i – 1, j )*k3( 1 , 2 ) + A( i – 1, j + 1 )*k3( 1 , 3 ) + + A( i , j – 1 )*k3( 2 , 1 ) + A( i , j )*k3( 2 , 2 ) + A( i , j + 1 )*k3( 2 , 3 ) + A( i + 1 , j – 1 )*k3( 3 , 1 ) + A( i + 1 , j )*k3( 3 , 2 ) + A( i + 1 , j + 1 )*k3( 3 , 3 ); B(1,5) = A( i – 1 , j – 1 )*k4( 1 , 1 ) + A( i – 1, j )*k4( 1 , 2 ) + A( i – 1, j + 1 )*k4( 1 , 3 ) + + A( i , j – 1 )*k4( 2 , 1 ) + A( i , j )*k4( 2 , 2 ) + A( i , j + 1 )*k4( 2 , 3 ) + A( i + 1 , j – 1 )*k4( 3 , 1 ) + A( i + 1 , j )*k4( 3 , 2 ) + A( i + 1 , j + 1 )*k4( 3 , 3 ); B(1,6) = A( i – 1 , j – 1 )*k5( 1 , 1 ) + A( i – 1, j )*k5( 1 , 2 ) + A( i – 1, j + 1 )*k5( 1 , 3 ) + + A( i , j – 1 )*k5( 2 , 1 ) + A( i , j )*k5( 2 , 2 ) + A( i , j + 1 )*k5( 2 , 3 ) + A( i + 1 , j – 1 )*k5( 3 , 1 ) + A( i + 1 , j )*k5( 3 , 2 ) + A( i + 1 , j + 1 )*k5( 3 , 3 ); B(1,7) = A( i – 1 , j – 1 )*k6( 1 , 1 ) + A( i – 1, j )*k6( 1 , 2 ) + A( i – 1, j + 1 )*k6( 1 , 3 ) + + A( i , j – 1 )*k6( 2 , 1 ) + A( i , j )*k6( 2 , 2 ) + A( i , j + 1 )*k6( 2 , 3 ) + A( i + 1 , j – 1 )*k6( 3 , 1 ) + A( i + 1 , j )*k6( 3 , 2 ) + A( i + 1 , j + 1 )*k6( 3 , 3 ); B(1,8) = A( i – 1 , j – 1 )*k7( 1 , 1 ) + A( i – 1, j )*k7( 1 , 2 ) + A( i – 1, j + 1 )*k7( 1 , 3 ) + + A( i , j – 1 )*k7( 2 , 1 ) + A( i , j )*k7( 2 , 2 ) + A( i , j + 1 )*k7( 2 , 3 ) + A( i + 1 , j – 1 )*k7( 3 , 1 ) + A( i + 1 , j )*k7( 3 , 2 ) + A( i + 1 , j + 1 )*k7( 3 , 3 ); for m = 1 : 1 : 8 for n = 1 : 1 : 8 if B( 1 , m ) >= valor valor = B( 1 , m ); end end end C( i , j ) = valor; endendreturn 8Física de la Visión Jaime Martínez Verdú
  • 260. Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial Otra manera más eficaz de código implementado utilizando MatLAB: function kirsch(A) [ f c ] = size(A); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f + 2, c + 2 ); B = zeros( 1 , 8 ); k=zeros(1,8,3,3); k( 1 , 1 ) = [ 5 , –3 , –3 ; 5 , 0 , –3 ; 5 , –3 , –3 ]; k( 1 , 2 ) = [ –3 , –3 , –3 ; 5 , 0 , –3 ; 5 , 5 , –3 ]; k( 1 , 3 ) = [ –3 , –3 , –3 ; –3 , 0 , –3 ; 5 , 5 , 5 ]; k( 1 , 4 ) = [ –3 , –3 , –3 ; –3 , 0 , 5 ; 5 , 5 , –3 ]; k( 1 , 5 ) = [ –3 , –3 , 5 ; –3 , 0 , 5 ; –3 , –3 , 5 ]; k( 1 , 6 ) = [ 5 , 5 , –3 ; 5 , 0 , –3 ; –3 , –3 , –3 ]; k( 1 , 7 ) = [ 5 , 5 , 5 ; –3 , 0 , –3 ; –3 , –3 , –3 ]; k( 1 , 8 ) = [ 5 , 5 , –3 ; 5 , 0 , –3 ; –3 , –3 , –3 ]; for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1 for p = 1 : 1 : 8 B( 1 , p ) = sum(A( i – 1 : i + 1 , j – 1 : j + 1 )*.k( 1 , p )); end for m = 1 : 1 : 8 for n = 1 : 1 : 8 if B( 1 , m ) >= B( 1 , n ) valor = B( 1 , m ); end end end C( i , j ) = valor; end end end return 9Física de la Visión Jaime Martínez Verdú
  • 261. Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial (a) (b) (c) (d) (e) (f) (g) (h) (i)Figura 9.6. (a) Imagen real; (b) Norte; (c) Noroeste; (d) Oeste; (e) Suroeste; (f) Sur; (g) Sureste; (h) Este; (i) Noreste. 10Física de la Visión Jaime Martínez Verdú
  • 262. Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial9.2.2. Operadores de Robinson. Los operadores de Robinson se definen considerando una máscara simple yrotándola en las ocho direcciones principales de la brújula: Norte, Noroeste, Oeste,Suroeste, Sur, Este y Noreste. Los operadores se definen como:  −1 0 1  0 1 2  1 2 1  2 1 0R0 = − 2  0 ; R =  − 1 2 1  0 ; R =  0 1 2  0 ; R =  1 0 3  0 − 1;   −1  0 1  − 2  −1 0   −1 − 2  − 1   0  − 1 − 2  0º 45º 90º 135º (4)  1 0 − 1  0 − 1 − 2  − 1 − 2 − 1 − 2 − 1 0R4 =  2  ; R =  1 0 − 2 5  ; R =  0 0 − 1 6  0 ; R =  − 1 0 7  0 1;   1  0 − 1   2  1 0   1  2 1   0  1 2  180º 225º 270º 315º Para encontrar los bordes, se aplica cada una de las máscaras en cada uno de lospíxeles. La respuesta del detector de bordes es el máximo de las respuestas de cada unade las ocho máscaras y la dirección sería pi/4 si Ki ha sido la máscara responsable dedicho máximo. Como se puede observar obtenemos resultados no satisfactorios. (a) (b) Figura 9.7. (a) Imagen original; (b) Resultado de aplicar los operadores de Robinson. El resultado de aplicar tanto los Operadores de Kirsch como los de Robinson nosaportan resultados similares aunque con una localización de bordes más precisa. (a) (b) Figura 9.8. Kirsch VS Robinson: (a) Resultado de Kirsch; (b) Resultado de Robinson. 11Física de la Visión Jaime Martínez Verdú
  • 263. Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial Código implementado utilizando MatLAB:function robinson(A)[ f c ] = size(A);A( : , c + 1) = zeros( f , 1 );A( f + 1 , : ) = zeros( 1 , c + 1 );for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); endendfor i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); endendA( : , 1 ) = zeros( f + 1 , 1 );A( 1 , : ) = zeros( 1 , c + 1 );A( : , c + 2 ) = zeros( f + 1 , 1 );A( f + 2 , : ) = zeros( 1 , c + 2 );C = zeros( f + 2, c + 2 );B = zeros( 1 , 8 );r0 = [ 1 , 0 , –1 ; 2 , 0 , –2 ; 1 , 0 , –1 ];r1 = [ 0 , –1 , –2 ; 1 , 0 , –1 ; 2 , 1 , 0 ];r2 = [ –1 , –2 , –1 ; 0 , 0 , 0 ; 1 , 2 , 1 ];r3 = [ –2 , –1 , 0 ; –1 , 0 , 1 ; 0 , 1 , 2 ];r4 = [ –1 , 0 , 1 ; –2 , 0 , 2 ; –1 , 0 , 1 ];r5 = [ 0 , 1 , 2 ; –1 , 0 , 1 ; –2 , –1 , 0 ];r7 = [ 1 , 2 , 1 ; 0 , 0 , 0 ; –1 , –2 , –1 ];r8 = [ 2 , 1 , 0 ; 1 , 0 , –1 ; 0 , –1 , –2 ];valor = 0;for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1 B( 1 , 1 ) = A( i – 1 , j – 1 )*r0( 1 , 1 ) + A( i – 1, j )*r0( 1 , 2 ) + A( i – 1, j + 1 )*r0( 1 , 3 ) + + A( i , j – 1 )*r0( 2 , 1 ) + A( i , j )*r0( 2 , 2 ) + A( i , j + 1 )*r0( 2 , 3 ) + A( i + 1 , j – 1 )*r0( 3 , 1 ) + A( i + 1 , j )*r0( 3 , 2 ) + A( i + 1 , j + 1 )*r0( 3 , 3 ); B( 1 , 2 ) = A( i – 1 , j – 1 )*r1( 1 , 1 ) + A( i – 1, j )*r1( 1 , 2 ) + A( i – 1, j + 1 )*r1( 1 , 3 ) + + A( i , j – 1 )*r1( 2 , 1 ) + A( i , j )*r1( 2 , 2 ) + A( i , j + 1 )*r1( 2 , 3 ) + A( i + 1 , j – 1 )*r1( 3 , 1 ) + A( i + 1 , j )*r1( 3 , 2 ) + A( i + 1 , j + 1 )*r1( 3 , 3 ); B( 1 , 3 ) = A( i – 1 , j – 1 )*r2( 1 , 1 ) + A( i – 1, j )*r2( 1 , 2 ) + A( i – 1, j + 1 )*r2( 1 , 3 ) + + A( i , j – 1 )*r2( 2 , 1 ) + A( i , j )*r24( 2 , 2 ) + A( i , j + 1 )*r2( 2 , 3 ) + A( i + 1 , j – 1 )*r2( 3 , 1 ) + A( i + 1 , j )*83,2) + A( i + 1 , j + 1 )*r2( 3 , 3 ); B(1,4) = A( i – 1 , j – 1 )*r3( 1 , 1 ) + A( i – 1, j )*r3( 1 , 2 ) + A( i – 1, j + 1 )*r3( 1 , 3 ) + + A( i , j – 1 )*r3( 2 , 1 ) + A( i , j )*r3( 2 , 2 ) + A( i , j + 1 )*r3( 2 , 3 ) + A( i + 1 , j – 1 )*r3( 3 , 1 ) + A( i + 1 , j )*r3( 3 , 2 ) + A( i + 1 , j + 1 )*r3( 3 , 3 ); B(1,5) = A( i – 1 , j – 1 )*r4( 1 , 1 ) + A( i – 1, j )*r4( 1 , 2 ) + A( i – 1, j + 1 )*r4( 1 , 3 ) + + A( i , j – 1 )*r4( 2 , 1 ) + A( i , j )*r4( 2 , 2 ) + A( i , j + 1 )*r4( 2 , 3 ) + A( i + 1 , j – 1 )*r4( 3 , 1 ) + A( i + 1 , j )*r4( 3 , 2 ) + A( i + 1 , j + 1 )*r4( 3 , 3 ); B(1,6) = A( i – 1 , j – 1 )*r5( 1 , 1 ) + A( i – 1, j )*r5( 1 , 2 ) + A( i – 1, j + 1 )*r5( 1 , 3 ) + + A( i , j – 1 )*r5( 2 , 1 ) + A( i , j )*r5( 2 , 2 ) + A( i , j + 1 )*r5( 2 , 3 ) + A( i + 1 , j – 1 )*r5( 3 , 1 ) + A( i + 1 , j )*r5( 3 , 2 ) + A( i + 1 , j + 1 )*r5( 3 , 3 ); B(1,7) = A( i – 1 , j – 1 )*r6( 1 , 1 ) + A( i – 1, j )*r6( 1 , 2 ) + A( i – 1, j + 1 )*r6( 1 , 3 ) + + A( i , j – 1 )*r6( 2 , 1 ) + A( i , j )*r6( 2 , 2 ) + A( i , j + 1 )*r6( 2 , 3 ) + A( i + 1 , j – 1 )*r6( 3 , 1 ) + A( i + 1 , j )*r6( 3 , 2 ) + A( i + 1 , j + 1 )*r6( 3 , 3 ); B(1,8) = A( i – 1 , j – 1 )*r7( 1 , 1 ) + A( i – 1, j )*r7( 1 , 2 ) + A( i – 1, j + 1 )*r7( 1 , 3 ) + + A( i , j – 1 )*r7( 2 , 1 ) + A( i , j )*r7( 2 , 2 ) + A( i , j + 1 )*r7( 2 , 3 ) + A( i + 1 , j – 1 )*r7( 3 , 1 ) + A( i + 1 , j )*r7( 3 , 2 ) + A( i + 1 , j + 1 )*r7( 3 , 3 ); for m = 1 : 1 : 8 for n = 1 : 1 : 8 if B( 1 , m ) >= valor valor = B( 1 , m ); end end end C( i , j ) = valor; endendreturn 12Física de la Visión Jaime Martínez Verdú
  • 264. Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial Otra manera más eficaz de código implementado utilizando MatLAB: function robinson(A) [ f c ] = size(A); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f + 2, c + 2 ); B = zeros( 1 , 8 ); r=zeros(1,8,3,3); r( 1 , 1 ) = [ 1 , 0 , –1 ; 2 , 0 , –2 ; 1 , 0 , –1 ]; r( 1 , 2 ) = [ 0 , –1 , –2 ; 1 , 0 , –1 ; 2 , 1 , 0 ]; r( 1 , 3 ) = [ –1 , –2 , –1 ; 0 , 0 , 0 ; 1 , 2 , 1 ]; r( 1 , 4 ) = [ –2 , –1 , 0 ; –1 , 0 , 1 ; 0 , 1 , 2 ]; r( 1 , 5 ) = [ –1 , 0 , 1 ; –2 , 0 , 2 ; –1 , 0 , 1 ]; r( 1 , 6 ) = [ 0 , 1 , 2 ; –1 , 0 , 1 ; –2 , –1 , 0 ]; r( 1 , 7 ) = [ 1 , 2 , 1 ; 0 , 0 , 0 ; –1 , –2 , –1 ]; r( 1 , 8 ) = [ 2 , 1 , 0 ; 1 , 0 , –1 ; 0 , –1 , –2 ]; for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1 for p = 1 : 1 : 8 B( 1 , p ) = A( i – 1 : i + 1 , j – 1 : j + 1 )*.r( 1 , p ); end for m = 1 : 1 : 8 for n = 1 : 1 : 8 if B( 1 , m ) >= B( 1 , n ) valor = B( 1 , m ); end end end C( i , j ) = valor; end end end return 13Física de la Visión Jaime Martínez Verdú
  • 265. Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial (a) (b) (c) (d) (e) (f) (g) (h) (i)Figura 9.9. (a) Imagen real; (b) Norte; (c) Noroeste; (d) Oeste; (e) Suroeste; (f) Sur; (g) Sureste; (h) Este; (i) Noreste. 14Física de la Visión Jaime Martínez Verdú
  • 266. Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial9.3. Operadores basados en la primera derivada: Gradiente. Es el método más común para detectar discontinuidades significativas en el nivelde gris ya que un borde es la frontera entre dos regiones con propiedades de nivel degris relativamente distintas. Durante los siguientes apartados supondremos que dichasregiones son lo suficientemente homogéneas como para que la transición entre dos deellas se pueda determinar mediante las discontinuidades de nivel de gris. En este caso, existen distintas definiciones de lo que es un borde, cada unaaplicable a distintas circunstancias. Como se puede observar en la Figura 9.10 la primera derivada es positiva paracambio a nivel de gris más claro, negativa en caso contrario y cero en aquellas zonascon nivel de gris uniforme. La segunda derivada presenta valor positivo en la zonaoscura de cada borde, valor negativo en la zona clara de cada borde y valor cero en laszonas de valor de gris constante y justo en la posición de los bordes. El valor de lamagnitud de la primera derivada nos sirve para detectar la presencia de bordes, mientrasque el signo de la segunda derivada nos indica si el píxel pertenece a la zona clara o a lazona oscura. Además, la segunda derivada presenta siempre un cruce por cero en elpunto medio de la transición (esto puede ser muy útil para localizar bordes en unaimagen). PERFIL HORIZONTAL PRIMERA DERIVADA SEGUNDA DERIVADA Figura 9.10. Aprovechamiento la teoría de diferenciabilidad a la detección de bordes. 15Física de la Visión Jaime Martínez Verdú
  • 267. Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial Aunque lo que llevamos dicho se refiere a perfiles unidimensionales, laextensión a dos dimensiones es inmediata. Simplemente se define el perfil en ladirección perpendicular a la dirección del borde y la interpretación anterior seguirásiendo válida. La primera derivada en cualquier punto de la imagen vendrá dada por lamagnitud del gradiente∇, mientras que la segunda derivada vendrá dada por el operadorLaplaciano∇2.9.3.1. Operadores basados en la definición de gradiente. Básicamente, la idea que dimana en la mayor parte de las técnicas de detecciónde bordes es el cálculo de un operador local de derivación. Una definición posible esque un píxel pertenece a un borde si se produce un cambio entre niveles de grises consus vecinos. Mientras más brusco sea el cambio, más fácil es detectar el borde. El primer problema que surge usando esta definición es debido a ladigitalización. El segundo problema es debido al ruido.Gradiente: El gradiente mide la máxima variación de una función f(x,y) en un punto P.Si f(x,y) fuera una función bidimensional continua, la definición de gradiente sería: ∂   ∂  ∂x f ( x, y ) Gx  Gx = ∂x f ( x, y )  G{ f ( x, y )} = ∇f ( x, y ) =   ⇒ G{ f ( x, y )} =  , con  (5)  ∂ f ( x, y ) G y  G y = ∂ f ( x, y )  ∂y      ∂y El vector gradiente nos da la dirección de variación máxima de f en el punto(x,y) por unidad de distancia. En este caso, sería probable que un píxel pertenezca a unborde si el módulo del gradiente 2 ∂  ∂ 2  G{ f ( x, y )} = G + G =  2 2 f ( x , y ) +   ∂y f ( x, y )  (6)  ∂x x y    es lo suficientemente "grande". La dirección del gradiente viene determinadapor:  ∂   f ( x, y )  G  ∂y φ = arctg  y  = arctg  G   (7)  ∂   x  f ( x , y )    ∂x  El valor de |G{f(x,y)}| es un número real que se suele convertir al entero máspróximo. Cualquier píxel cuya magnitud |G{f(x,y)}| exceda de un valor umbral Tespecificado de antemano, diremos que pertenece a un borde. Normalmente, este valorumbral es el valor medio en el rango de niveles de grises usados en la imagen. 16Física de la Visión Jaime Martínez Verdú
  • 268. Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial Una aproximación del gradiente de una imagen (asumiendo que las variacionesse dan únicamente horizontal y/o verticalmente) sería: ∂f ( x, y ) f ( x + ∆x, y ) − f (x, y ) Gx = = ∂x ∆x (8) ∂f (x, y ) f (x, y + ∆y ) − f (x, y ) Gy = = ∂y ∆y En imágenes discretas se puede considerar dx y dy en términos del número depíxeles entre dos puntos. Así, cuando dx=dy=1 y el punto donde vamos a medir elgradiente tiene coordenadas (i,j) tenemos que: G x = f (i + 1, j ) − f (i, j ) (9) G y = f (i, j + 1) − f (i, j ) Para la implementación y computación del gradiente se utilizan máscaras ofiltros que representan o equivalen a dichas ecuaciones. En este caso, computar elgradiente sobre toda una imagen con las condiciones de que dx=dy=1 consiste enconvolucionar la imagen con unas máscaras del tipo:  0 −1 0  0 0 1 Gx =  0 0  1  Gy =  0 − 1  0  (10)  0 0  0   0 0  0 Una mejor aproximación podría ser: ∂f ( x, y ) f ( x + ∆x, y ) − f ( x − ∆x, y ) Gx = = ∂x ∆x (11) ∂f ( x, y ) f ( x, y + ∆y ) − f ( x, y − ∆y ) Gy = = ∂y ∆y En imágenes discretas se puede considerar dx y dy en términos del número depíxeles entre dos puntos. Así, cuando dx=dy=1 y el punto donde vamos a medir elgradiente tiene coordenadas (i,j) tenemos que: G x = f (i + 1, j ) − f (i − 1, j ) (12) G y = f (i, j + 1) − f (i, j − 1) Para la implementación y computación del gradiente se utilizan máscaras ofiltros que representan o equivalen a dichas ecuaciones. En este caso, computar elgradiente sobre toda una imagen con las condiciones de que dx=dy=1 consiste enconvolucionar la imagen con unas máscaras del tipo:  0 0 0  0 −1 0 Gx =  1  0 − 1  Gy =  0  0 0  (13)  0  0 0  0  1 0  17Física de la Visión Jaime Martínez Verdú
  • 269. Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial (a) (b) (c) (b) (c) Figura 9.11. (a) Imagen original; (b) Primera aproximación Gx; (c) Primera aproximación Gy; (c) Segunda aproximación Gx; (d) Segunda aproximación Gy. Tal y como se pueden observar en las figuras anteriores, el gradiente Gx, detectalos bordes verticales y el operador Gy los horizontales (a priori, podríamos pensar queesta situación debería estar invertida). Esto es debido así a que el operador Gx detectalas variaciones que se producen con x fija. De igual manera, podemos apreciar la mejorade la segunda aproximación respecto la primera. 18Física de la Visión Jaime Martínez Verdú
  • 270. Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial Código implementado utilizando MatLAB: function gradiente(A, T, aproximacion) [ f c ] = size(A); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f + 2, c + 2 ); G = zeros( 1 , 2 ); Gx1 = [ 0 , –1 , 0 ; 0 , 0 , 1 ; 0 , 0 , 0 ]; Gy1 = [ 0 , 0 , 1 ; 0 , –1 , 0 ; 0 , 0 , 0 ]; Gx2 = [ 0 , 0 , 0 ; 1 , 0 , –1 ; 0 , 0 , 0 ]; Gy2 = [ 0 , –1 , 0 ; 0 , 0 , 0 ; 0 , 1 , 0 ]; for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1 if aproximacion == 1 G( 1, 1 ) = sum( A( i – 1 : i + 1 , j – 1 : j + 1 ).*Gx1 ); G( 1, 2 ) = sum( A( i – 1 : i + 1 , j – 1 : j + 1 ).*Gy1 ); else G( 1, 1 ) = sum (A( i – 1 : i + 1 , j – 1 : j + 1 ).*Gx2 ); G( 1, 2 ) = sum( A( i – 1 : i + 1 , j – 1 : j + 1 ).*Gy2 ); end if sqrt(G( 1, 1 )^2 + G( 1, 2 )^2) >= T C( i , j ) = 255; else C( i , j ) = 0; end end end return 19Física de la Visión Jaime Martínez Verdú
  • 271. Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial El problema de este método aparece puesto que no se tiene en cuenta el valor dela imagen en dicho píxel, ni los píxeles que se encuentran en la diagonal. Cualquieraque sea el operador usado para calcular el gradiente, el vector resultante contieneinformación sobre la probabilidad de que un píxel pertenezca a un borde y qué direccióndebemos seguir. (a) (b) (c)Figura 9.12. (a) Imagen original; (b) Imagen de la magnitud del gradiente considerando un umbral de T = 80; (c) Imagen binarizada.9.3.2. Operadores de Prewitt. Los operadores gradiente tienen el efecto de magnificar el ruido subadyacente enla imagen. El operador de Prewitt tiene la propiedad de suavizar la imagen, eliminandoparte del ruido y, por consiguiente, minimizando la aparición de falsos bordes debido alefecto de magnificación de ruido por parte de los operadores derivada. Si suponemos una imagen dada por:  z1 z2 z3  Ζ =  z4  z5 z6   (14)  z7  z8 z9   donde los distintos valores de z son los niveles de gris de los píxeles solapadospor las máscaras en cualquier localización de la imagen. 20Física de la Visión Jaime Martínez Verdú
  • 272. Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial Para obtener los valores de las componentes del vector de Prewitt en el puntodefinido por el píxel central z5 se utilizan las siguientes expresiones: Px = ( z3 + z6 + z9 ) − ( z1 + z 4 + z 7 ) (15) Py = ( z 7 + z8 + z 9 ) − ( z1 + z 2 + z3 ) De donde se obtiene las máscaras: − 1 0 1 − 1 − 1 − 1 Px = − 1  0 1  Py =  0  0 0 (16) − 1  0 1   1  1 1  (a) (b) (c) (d) (e) (f)Figura 9.13. Aplicación de Prewitt: (a) Imagen original, (b) Bordes detectados mediante|P|, (c) Bordes detectados mediante |Px|, (d) Bordes detectados mediante |Py|, (e) Imagen resultante considerando T = 10, (f) Imagen resultante considerando T = 20. 21Física de la Visión Jaime Martínez Verdú
  • 273. Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial Código implementado utilizando MatLAB: function prewitt(A, T) [ f c ] = size(A); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f + 2, c + 2 ); P = zeros( 1 , 2 ); Px = [ 1 , 0 , –1 ; 1 , 0 , –1; 1 , 0 , –1]; Py = [ 1 , 1 , 1 ; 0 , 0 , 0 ; –1 , –1 , –1 ]; for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1 P( 1, 1 ) = sum( A( i – 1 : i + 1 , j – 1 : j + 1 ).*Px ); P( 1, 2 ) = sum (A( i – 1 : i + 1 , j – 1 : j + 1 ).*Py ); end if sqrt(abs(P( 1, 1 )) + abs(P( 1, 2 ))) >= T C( i , j ) = 255; else C( i , j ) = 0; end end end return 22Física de la Visión Jaime Martínez Verdú
  • 274. Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial function prewittx(A, T) [ f c ] = size(A); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f + 2, c + 2 ); Px = [ 1 , 0 , –1 ; 1 , 0 , –1; 1 , 0 , –1]; for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1 P = sum( A( i – 1 : i + 1 , j – 1 : j + 1 ).*Px ); end if sqrt(abs(P)) >= T C( i , j ) = 255; else C( i , j ) = 0; end end end return 23Física de la Visión Jaime Martínez Verdú
  • 275. Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial function prewitty(A, T) [ f c ] = size(A); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f + 2, c + 2 ); Py = [ 1 , 1 , 1 ; 0 , 0 , 0 ; –1 , –1 , –1 ]; for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1 P = sum( A( i – 1 : i + 1 , j – 1 : j + 1 ).*Py ); end if sqrt(abs(P)) >= T C( i , j ) = 255; else C( i , j ) = 0; end end end return 24Física de la Visión Jaime Martínez Verdú
  • 276. Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial9.3.3. Operadores de Sobel. El operador de Sobel es similar al de Prewitt pero, en este caso, se suelen usardos máscaras: una para la primera componente del vector y otra para la segundacomponente del mismo. Dichas máscaras, que se llaman operadores de Sobel, son:  −1 0 1  −1 − 2 − 1 S x = − 2  0 2  Sy =  0  0 0 (17)  −1  0 1   1  2 1  Si (a,b) es el vector gradiente de un píxel calculado usando los operadores deSobel, para calcular la máxima variación de f(x,y) en la dirección del gradiente, se suelecalcular la suma del valor absoluto de sus coordenadas en lugar del módulo (por sermenos costoso, computacionalmente hablando). Observemos que en las máscaras de Sobel, tienen más peso los píxeles situadosen posición vertical y horizontal respecto el píxel estudiado que los situados en ladiagonal. (a) (b) (c) (d) Figura 9.14. Aplicación de Sobel: (a) Imagen real; (b) Resultando de aplicar |Sx|; (c) Resultando de aplicar |Sy|; (b) Resultando de aplicar |Sx| + |Sy|. 25Física de la Visión Jaime Martínez Verdú
  • 277. Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial Código implementado utilizando MatLAB: function sobel(A, T) [ f c ] = size(A); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f + 2, c + 2 ); S = zeros( 1 , 2 ); Sx = [ 1 , 0 , –1 ; 2 , 0 , –2; 1 , 0 , –1 ]; Sy = [ 1 , 2 , 1 ; 0 , 0 , 0 ; –1 , –2 , –1 ]; for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1 S( 1, 1 ) = sum( A( i – 1 : i + 1 , j – 1 : j + 1 ).*Sx ); S( 1, 2 ) = sum (A( i – 1 : i + 1 , j – 1 : j + 1 ).*Sy ); end if sqrt(abs(S( 1, 1 )) + abs(S( 1, 2 ))) >= T C( i , j ) = 255; else C( i , j ) = 0; end end end return 26Física de la Visión Jaime Martínez Verdú
  • 278. Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial function sobelx(A, T) [ f c ] = size(A); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f + 2, c + 2 ); Sx = [ 1 , 0 , –1 ; 2 , 0 , –2; 1 , 0 , –1 ]; for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1 S = sum( A( i – 1 : i + 1 , j – 1 : j + 1 ).*Sx ); end if sqrt(abs(S)) >= T C( i , j ) = 255; else C( i , j ) = 0; end end end return 27Física de la Visión Jaime Martínez Verdú
  • 279. Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial function sobely(A, T) [ f c ] = size(A); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f + 2, c + 2 ); Sy = [ 1 , 2 , 1 ; 0 , 0 , 0 ; –1 , –2 , –1 ]; for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1 S = sum( A( i – 1 : i + 1 , j – 1 : j + 1 ).*Sy ); end if sqrt(abs(S)) >= T C( i , j ) = 255; else C( i , j ) = 0; end end end return 28Física de la Visión Jaime Martínez Verdú
  • 280. Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial9.4. Operadores basados en la segunda derivada: Laplaciano.Laplaciano: El laplaciano de una función bidimensional es una operación derivada desegundo orden definida por:  ∂2   2 f ( x, y ) ∂x ∇ 2 f ( x, y ) =  2  (18) ∂   ∂y 2 f ( x, y )   El principio en que se base este método consiste en encontrar las posiciones enuna imagen donde la segunda derivada toma el valor 0. (a) (b) (c) Figura 9.15. (a) Detección de bordes; (b) Paso por cero; (c) Extremos absolutos. Como en el caso del gradiente, la ecuación del laplaciano puede implementarseen forma digital de varias maneras:∇2 f (x, y ) = 4 z5 − ( z2 + z4 + z6 + z8 ). Una de las másfrecuentes en la práctica es aplicar las siguientes máscaras:  0 − 1 0  1 −2 1 − 1 − 1 − 1 L1 = − 1 4 − 1;   − 2 L2 =  4 − 2 ;  L3 = − 1 8 − 1; (19)    0 − 1 0    1 −2  1 − 1 − 1 − 1   El requisito básico para la definición de laplaciano digital es que el coeficienteasociado con los píxeles exteriores sea negativo. Como el laplaciano es una derivada, lasuma de los coeficientes debe ser cero. En consecuencia, la respuesta es cero siempreque el punto en cuestión y sus vecinos tengan el mismo valor. Aunque el Laplaciano responde a las transiciones de intensidad, rara vez seutiliza en la práctica para la detección de bordes: • Los operadores basados en la primera derivada son sensibles al ruido en imágenes. El Laplaciano aún lo es más. • Genera bordes dobles. • No existe información direccional de los ejes detectados. 29Física de la Visión Jaime Martínez Verdú
  • 281. Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial En orden de minimizar los efectos del ruido, un método consiste en conjuntarcon la operación de detección de ejes un proceso de suavizado de la imagen. Uno de los métodos más utilizados es el suavizado por medio de unaGaussiana: • Convolucionar la imagen original con un filtro gaussiano. • Calcular las derivas sobre la imagen suavizada. Como ambas operaciones son lineales podemos combinar ambas operaciones dediferentes formas: • Suavizado de la imagen y cálculo de la 2ª derivada. • Convolución de la imagen original utilizando el laplaciano del Gaussiano (Mapa de transición logarítmico). Este método de detección de ejes fue propuesto por primera vez por Marrand-Hildreth quienes introdujeron el principio de detecciones mediante el método de crucespor cero. (a) (b) (c) (d)Figura 9.16. Aplicación del laplaciano: (a) Imagen original; (b) Resultado de aplicar L1; (c) Resultado de aplicar L2; (c) Resultado de aplicar L3. 30Física de la Visión Jaime Martínez Verdú
  • 282. Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial9.5. Operador de Canny. Es el detector de bordes más poderoso que existe actualmente. Los pasosprincipales del algoritmo son: • Se convoluciona f con filtros gaussianos unidimensionales. De esta forma la imagen se suaviza (eliminación de ruidos). • A continuación, se calcula el gradiente de la imagen suavizada usando una aproximación del gradiente de la función gaussiana (para determinar los píxeles donde se produce máxima variación). • La matriz M correspondiente al módulo del gradiente da la función gaussiana tendrá valores grandes donde la variación de la intensidad sea grande. Se realiza, por tanto, un tresholding, eliminando aquellos píxeles que no tienen una magnitud (módulo del gradiente) alta. • Posteriormente se realiza un proceso de eliminación de falsos bordes y realzado de bordes poco definidos. Este proceso se realiza eliminando aquellos píxeles que no son máximos locales. Un ejemplo de aplicación de este método es el siguiente: Componente X de la Componente Y de la convolución Gaussiana convolución Gaussiana Componente X de la convolución Componente Y de la convolución de la derivada Gaussiana de la derivada Gaussiana Magnitud de la derivada Supresión de los elementos Gaussiana no máximos Figura 9.17. Resultados de aplicar el operador Canny. 31Física de la Visión Jaime Martínez Verdú
  • 283. Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial Un ejemplo comparando el detector de bordes de Sobel y de Canny es elsiguiente: (a) (b) Figura 9.18. (a) Imagen al aplicar Sobel; (b) Imagen al aplicar Canny. En resumen, la detección de bordes usando operadores de aproximación delgradiente tiende a funcionar bien en los casos en que se involucran imágenes contransiciones de intensidad claramente definidas y ruidos relativamente bajos. Los pasospor cero ofrecen una alternativa en los casos en que los bordes están emborronados ocuando está presente un alto contenido de ruido. El paso por cero ofrece fiabilidad en laslocalizaciones de bordes y la propiedad de suavizado de la convolución gaussianareducen los efectos del ruido. El precio a pagar por estas ventajas es el incremento decomplejidad de cálculo y tiempo. 32Física de la Visión Jaime Martínez Verdú
  • 284. Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial9.6. Problemas en los operadores para la detección de bordes. Existen ciertos problemas comunes en todos los operadores que utilizan elgradiente para la detección de bordes: • Se deben de realizar elecciones en valores umbral (corte) y tamaño de las máscaras a utilizar (el tamaño condiciona el grado de suavizado, el cual puede afectar a las detecciones por cruce por cero y al máximo gradiente sobre una imagen). La posición estimada de un borde debería ser independiente del tamaño de la máscara de convolución. • Las esquinas son a menudo omitidas a causa de que el gradiente (1D) sobre las esquinas es normalmente pequeño. Esto puede causar considerables dificultades para el etiquetado de líneas ya que éstas pueden aparecer discontinuas. • Los operadores de primera derivada detectan solamente step-like. Si uno quiere encontrar líneas se necesita utilizar operadores diferentes (por ejemplo Canny). • Proceso diferenciales aplicados en la detección de bordes generan falsos positivos y falsos negativos. 33Física de la Visión Jaime Martínez Verdú
  • 285. Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial9.7. Bibliografía. Tratamiento Digital de Imágenes. Rafael C. González, Richard E. Woods. Visión por Computador, Imágenes digitales y aplicaciones. Gonzalo Pajares, Jesús M. de la Cruz. 34Física de la Visión Jaime Martínez Verdú
  • 286. Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial Visión por Computador. Javier González Jiménez. Visión por Computador, Fundamentos y Métodos. Arturo de la Escalera. 35Física de la Visión Jaime Martínez Verdú
  • 287. F 8 7 5 4 ø B ¤ ù ó¤ 9 8 7 5 4 ÿ ø þõ ö E§"3D‚Có 1ÆA@§)63¼¦÷x%ó ¡ ÿ ¡ 31d÷x0%g´)}ø (¨ ¡ &x´%&% $"!£¥gö ¡ %)õ Ƥ ¤ 2 ÿ ó ùõ ¢ ù ó ö  % ÿ ø ¢õ ô % #  ¢ ¢ ó ¢ û ó  ÿ ó óøô ó õ¦ ¤ ø ö ÿû ù ø  ÿ öó ¨ ù ¤ ¢ ù ø ÿ øôûþô øô ü û õô óŽD‘÷û‚ó }û„%gó¢¤ ¡ u‚}þF´dôø ¡ ø Dgó$D©§¦ó ¥góö £¼ûø ¡ u¼ûsø F´u‚´´”¢ý†‚÷ú¼õ¼ù}ùxø÷öŽDµxòñ ðï‰fl)uu~or4‘%pdnd˜eU4‘tˆ† ƒk n ™ ˆ˜ ™ w o•™do•–j–‘ˆ”)–fli–¦$•‘–‘p)uf€l)q$putˆUf{Qs)ldn)$poním%)fl‘fÕ%d˜fljã ä ™ i g w nk wk “ k ’ wˆ ºkˆ n †k k˜ n ™ wk r € ˜k •k˜ ™ ˆ ˆ˜‡k n’‡ — k k i g ä ˆ• r—‡ ˆ i ’ w ˆ˜ ’‡ ˆ ‡ k ’ ’ “’• “ k˜k ˆ•ˆ … ƒk nkºˆ ™ k w †ˆ ™ ™ w ’˜ n ™ %uˆ~u‰m€n–X–lnu%sr‘fm€D$Q$o˜d™„‘$–4$$fm%u„U‰fl)uu~orq–u%o˜„oºUX$j)ekr수gˆ ˜ †k n ‡ k´%j‘%•d€)x‘’fqfe‡d™•utˆo™o†™uˆx¦$Xl–oiuª)qlpfQ‰e‡d™)‘%–v%d˜fq–muod™)dkU‘IF… r ë k ’ n r †ˆ †k k i g k ˆ ˜‡—• “ — k k w ’ ˜ | ˆ’ † ê C a C è b WY C P T b Y èY P @ G a CY W b G b 8 6 FQFDD`%éQhDI¼G4$mçª4F%`4I¦”æ vå ’ wˆ † k•  † k w n ™‡ •‡k „–‘%o˜–dif$„e’v–‰‘ey)ªo“d™)$fÕ㠐 •ˆ ™ r †  † kw n ™‡ˆ‡ † ‘tˆd™u€on–oi‘tˆÕ–’‘ey)‘‰je’‘’ ä  •ˆ ™ r †  † kw n ™‡‡ † ‘tˆd™u€on–oi‘tˆ†–‰‘ey)ffekF… ƒ• •k˜ nˆ n ™‡ˆ ™ r ™ † k w n ™‡ •‡k ‰‘e’d™)$ju’‘ey)‘€on–oio†Qtˆv–‰‘ey)ªo“d™)$fÕ㠗•ˆ †ˆk %u€oiu‘)†k ⠃á Á Ç× Ã Ç Û Çß ’˜ n ˆ †k n’ %€„¢à)pI¯ÁXµÆڝĄQ$p–di‘H)‰‘f‡ Ø Ý Ü Û Ú Ù Ä× Ã n ™‡‡k ™ w † ˆ • ™  nk k i g €ˆ Ô ƒ ˆ rˆ•º’• “ †k w ’•k ‡‡ “ † ‚¯ÞUQµu¯ØÆÇ)p֑ey)ff$o•U’tˆ’še’d†utˆjj)”lj9fÕBU~u%„‘$–¦)–š$)l$€¦F… ÓrÒwrÑÐw w Ë Î Í Ì w Ë Ê e e –ªHlu„¨€9B„Ï–sžB²IÉ „¯Èfd ƒ Ç Äà  ÁÀ ˆ rˆ•º’• “ †k —•ˆ €ÁFÆőpIŒ~u%„‘$–f)X%uli k$’%u€Ÿ–uod™u€dn)$o˜u¿‘ey)‘€on–oio†~–‹$)fu‰$–9–Q)l‘ª‘$–Œljzf€†„–”–w  ˆ•ˆ “ Š ’ ˜ˆ •k †ˆ n ™‡ˆ ™ r ™ k w ’˜‡k€’• “ n i •k n’ “’• “ k i g €ˆ ‡ ¾’ w k ’ ™ » |ˆ ˆˆ ˜ k w ˆ n’  † € †ˆ‡ † †k w ˜k r’kº † k n ˜ k k i g k ˆ n {or–onr½X¼’´€u%d•–„‘€‘‰Ÿ‘tˆvju‰µe’U)–qtˆd»d•){‘fu4tˆl)ekd™B$lj)u4€4¹ –™ « œ › « §­ –•–™ ¦   ¡ œ– ™ ¡ ° ±• ¸ §–•­ « · ¶ œ « «™  ¦•¦ §³™ — ¦™ › § jHª¯§j¯­œ„¨IuŒ–‰pŒ–¯•Ÿ‹¢—Žh¨f‘u¨¨‰–u‘¨ªH¢«Ÿ˜µ’•‘–´I)fšŒj¨¤s¬ ± ™¥ œ £ ™ ¡ ° « œ­• — œ   ¦• ®§¦ ¬ —§­ •¦• ¬ «™ © œ–  ¤– §¦¥™ —¤ £ ²‰‰¯–Hp™‰¨fžª¯¤j–H¢«œzŸ¢¡¢ z•Œ–Ÿ€u¨zIu#u–¨˜jªŽ¦Ž¨§I‰šu‰uzIfH¢¡   › – • œ › — – • ” ƒk n ™‡ “k w k k ig •k € ’ ˜k ry  † †k n’‡ ˆ ™wk r  j™Ÿž–¨›„p™š˜–BD„$˜p)ek)€‚–xf’lpx)u‘¢$d•){‘–Uoiq)‘fx‘lewUf{”‘tˆ† nˆ †ˆk• k † ˆ•ˆ “ Š ˆˆ• r k ˆ rk˜  †k k i g •ˆ ˆ’• “ r’‡ k •k‡ˆ ‡ k i uŽoo™u‰$Œ$#e’o†)k‹%u€„„ek†–u%‘d’}|k{Xf‰~)$$ed™)qlp{u€‘$–‘ff{)f‘€”ljg €ˆ ‡ i g ’•k • “ †k ˆ ˆ …ƒk nk ™ k ˆ € n ™‡ˆ ™ r ™ k w ˆ rk ™ n i •ˆ• k f€klj†$){ord™–ve’†se’o†)†%•u„u„$˜p)$d˜eU‚vp”‘ey)‘€on–oio†–v~)$d˜e$~–Bu%‘d’}|{r k w †k k n ™‡ˆ ™ r k w ˆ ‡—• • † i ™ ˆ˜ nk˜ ™ k i g ’ ˜‡—• “ ’ˆ‡ † –F)vfz‘ey)‘€on–oio†™X–x‰e‡d™˜)‘%–“”tˆ†vutˆ–sor$q%p)$jonmljhfe‡d™)‘%–”$‘‰BF… ƒ y i vtr p i e e „‚€xwfusqh ¤gdfd a cY E b aY W VT R C P @ G E C A @ 8 6 D%¨DQ$`X$USQ&IHFDB97 45 3 2© © 0     ¥© "     ¥© § ¥ £ ¡ 4%$1!)(&%$#!¨¦¤¢ 
  • 288. C û ÿ „ ÿ ¤ ÿþô û¦ øõû…û ø „ ÿ ¤ ÿþô û ÿõû ÿ ÿó ÿ ÿ þ „ø ¡ V‚÷þD‚´‰xþ¢ &gó¢ }ÿj´u)¦¢ ¼ÿ„ø ¡ Hþ D´‰xþ¢ þ p´‘ƒ‚þ ‘ ‚xþ¢ l2  y v Y €W xb `U h h W s W ¨xwth ag v u s r Y W U S ƒ’ˆ “ ’k ’ wˆ i ˆ ‡ k î i g•’ h `U h G4§qiHfdc§’) `U h XVTŽ„$‘€H„%fq–‘%lq€s$lj$‘“ h h r p hg e ) b a h Y †k w ’˜ n ™ rˆ n’ˆ• †k € ’ wˆ †ˆk• nˆ ‡ k k i g ’ˆ “  † ’ w ’˜ k w k • ë ™ n )–X$p)eku€‘‰u%l)m–‘Žoo™u‰${u€$4lp„$‘€B„e’„–j$D–4{dr‘’ Uon{4¹ ÓrÒwrÑÐw w Ë Î Í Ì w Ë Ê e e –ªHlu„¨€9B„Ï–sžB²IÉ „RQFÈ ƒ I F F † k˜ n ™ wk r k w•’ ˆ k w n ™‡‡k˜k w ˆ n i •ˆ †ˆk A ƒ vPHGtˆs$putˆUf{v–$‘Ֆ‰‘ey)ff$)–{€–DuŽoo™u‰4BlE ƒk• † i‡ ™‡ nˆk ’ n k i g ’˜ | ˆ’  † •ˆ ™ † … ‰f$utˆ–)$o•)‰u‰$lÕlpq„$)¼kU‘4„e’4u€onoro™F&ƒ D ƒ †k nk nˆ ˜nk i‡ nk k k i Utˆo†)h)‹u%d•p)l)l)v%vlpg ’˜ | ˆ’  † ˆ º nk˜ nˆ r k i g ˆ • ë †ˆ˜ k w •ˆ ™ ˆ nk nkºˆ ™ † •k n „$)dkU‘D„e’p–)$ju~Õlp{~dr‘¢’¤u%Ֆ~tˆd™u€on–q)‰)uu~orQtˆío•d™d˜)up‘’ ä ƒ C ƒ ˆ rˆ•º’ ™ ‡ k w n ™‡ †ˆ i ™ ˆ n i •ˆ †ˆk A U~u%„‘$d˜e–Õ–‰‘ey)‘tˆu€„oº€–DuŽoo™u‰4Bƒ F ƒ’ˆ “ k˜ n ™ i Ž„$‘€Df$j)ek–„º ì d™s„e’QuŽoo™u‰$‹éã ä tˆ~–¨)uu~orxtˆmo•d™o•–p–‘9)~$d˜ed™l‘f²‰e‡d™)‘%–qH&   † •ˆ †ˆk• € ä † k w nkºˆ ™ † ™ i g wˆ nk k  n’‡ ˆ ˜‡—• “ ˆ  0Ñ4@r p i w 8 Ð 04 iw e e U%4¨µ5¨s‘g¢s9¨3765–3210€’) „¯ÈFÈ ( #‘$4uŽoo™u‰$X4„{u„Õljg n’ •ˆ †ˆk• ˆ ’ rˆ k i €ˆ ‡ k i g ’ˆ “ ’•k • “  † †k ˆ•ˆ “ Šk• † i‡ ™‡ ˆ ™ “  † k w ˆ ˜ •k˜ˆ•ˆ f€Xljs„$‘€s„$){ord™–†„e’qe’o†)q%u€H‰f$utˆ–)$o•)s‘Ž)ek–†‘tˆ–m‘‰e‡d™$ed»)$u%u‰‡  † ™ wk r k i g k n ˜ k k i g †k nk wˆ †ˆ‡ k w †’ ˜ n’‡ k w ˆ rk˜  n i •ˆk•‡ ˆ ‘tˆso•Uf{{lpŒl)ekd™${ljs)z)¨‘lewo™u‰~–‘$d•j‘f~–q~)$$ed™z–su‰$)h€‡ ˆ ƒ¾k• † iº nˆ˜‡k• € k• † i‡ ™ ½ ˆ ™ “ k w ’ ˜  •ˆ nˆ • ˆ ë k k w n’ ‘{k ⠂f$utˆ–„–u%)f$’mf$utˆ–)$o•)¢‡Œ‘Ž)ek––m„ªo“d™v„e’d™u„zu‰e‡d™–uxˆQ$Œ–l‘–w Šk˜ nk rˆ˜’ rk• ’ w †’ ˜ n’‡ n ™‡ˆ • ˆ ë k w ˆ rk  n i † i  ˆ ˜‡—• “ ˆ „$j){u%‘{)$#–‘tˆ‘$d•p‘f‘‘ey)‘‰e‡d™–ux—Œ–’~)$d˜ed™ž–’tˆ–sord™‹‰e‡d™)‘%–‰H& ƒ y i vtr p i e e „‚€xwfusqh ¤gdFÈ ƒ ˆ ˜‡—• U‰e‡d™)‘%–“ tˆí–‰‘ey)‘Žoo™u‰$mtˆQ%u€e’d™u%ffflÕ$u¦%$¢˜u$f)–‘tˆu%d˜lonvl)ekd™4‘–‘€)–$‘í$$fk † k w n ™‡ˆ †ˆk• † ˆ•ˆ “ •ˆk‡k n k•ˆ 뒐 †k ’ w †ˆ  ™ k n ˜ •’ wˆ nk w•’ k˜Š‚ÞUQµoڑ#¯ÁI‘–‘€)–$‘I)”)†%j)l)†€–vl‘tˆ)µ$‘m%Ul)$‘‰e‡d™)‘%–D–†$}|$u€“ Ø Ý Ü Û Ý" Ç ! •’ wˆ nk w•’ †k nk ˆ˜ nk i‡ ˆ n i ˆ w ™‡ ’ˆ —• w nk˜ ˆ ˜‡—• “ k w ˆ k•ˆ ˆ wˆ‡ Š Ú Ç  k •’˜ˆ•’ˆ ˆ † † nk •ˆ i ˆ ˆ k i g ’ ˜ˆ•k “’ ˆ rk  † l‘‰¦„ l¯ÁFf‘e’d™‘$u%‘‘€utˆÕ)k )xu%l¨9‘‰ljžuod™u%)ª‘¢~)$d˜ed™vF… ƒÞ¤ ¢×   k w †ˆ inˆ r †k ’ wˆ‡ †’‡ — k ˆ• ˜ˆ n ˆ † k )‘¥xãD–¨u€ju~¤){–‘‰µe’‘f%d˜f%–diu€„oºd™‘~tˆÕ–w ˆ ™º— “ † n … ƒ nk ™k k ig Þ¤ ¢×   k w ’ © ¢Ã ¦ k w  †ˆ inˆ r  † † i r  † k €on„u€tˆ’FIf)$d˜eµ‚mlpu¥xãD–Œmà ¢Ä¨’–Õfeku€pu~ífek–o“d™o˜–m4„e’s–w ˆ• ™ i †ˆ i‡ •ˆ i k wk i “ k ˆ †  n’‡ • ™ i †ˆ i‡ ˆ•ˆ … ƒ ˆ rˆ•º’• “ †k w ’˜ n ™ rˆ n ™ %)ek–jegu€)u%lí–fl–q$m%o˜–dil‘f)ek–pegu€)Q%u„–U~u%„‘$–I)–$j)eku€‘e’)‡ ìU–¢iH)–푉e‡d™‘€Õfl‘e’)‘‰e‡o™–U‚q‘tˆ”%uŽoo™u‰$s$xe’d™‘$u%‘ªutˆm–s$‘tˆ)#FIƒ  n ë †k w ˆ — ˆ k n ™‡ˆ † “ k  † —•ˆ †ˆk• k •’˜ˆ•’ ˆ † k w k †‡ n …   tˆ)l)fe‡o™x‘fQ~u%„‘$–m€–q–Q%u%d•q$ÕlpQtˆ)l)$) ëk UQtˆ”‘fQ$)jfà ¢Ä¨’§{r ™‡ nk † n’‡ ˆ rˆ•º’• “ ˆ n i k w ˆ˜ˆ ˜ k k i g ™‡ nk• ™ w † n’‡ ’•k “ Š© ¢Ã ¦ ’ 쒇  † ™‡• nk r’‡ ˆ rˆ•º’• “ ˆ • ™  •ˆ|ˆ ˆˆ ˜ k w ˆ • ë ˆ n i k n ˜ ˆ rˆ•º’• uf4fekutˆ)$–){‘fq‘~u%„‘$–Q4utˆo†ord™Du$´€u%d•Õ–X~dr‘¢’Q€–Õl)ekd™~u%„‘$–“ k kŠÞ¤ ¢×   k ˆ ˜‡—• “  † •ˆ †ˆk• ˆ•ˆ “ •ˆ ˜ i ˆ ˆ k k i g ˆ rˆ•º’• “ † $d˜fu)‘¥xãD¡fB‘‰e‡d™)‘%–Ÿ‘tˆFuŽoo™u‰$í%u€FuŽoo™o†d™–qí„$¦lpv~u%„‘$–UF…
  • 289. Práctica 1Proyecto de iluminación Asignatura: Física de la Visión Profesor: Roque Fernando Madrigal Madrigal Alumnos: María de las Nieves Robles Botella Jaime Martínez Verdú
  • 290. Prácticas de Física de la Visión Ejercicio – Proyecto de iluminación 1. Descripción de la iluminación anterior. Después de un proceso de selección de datos hemos obtenido una serie deresultados que vienen representados en la siguiente figura: 50 100 200 150 77 186 265 160 203 194 283 215 289 206 298 Banco de Trabajo 337 285 Luz en el portaherramientas 1005 Luz en la pantalla de 330 Fresadora Universal 281 305 253 200 265 215 192 266 299 234 250 200 Atril 230 182 223 250 265 292 221 231 177 Torno de control numérico CNC Luz en el portaherramientas 790 200 200 166 Luz en la pantalla de 440 235 265 Luz de trabajo en el plato 1170 220 290 Centro de mecanizado 212 312 241 271 212 241 260 262 251 261 260 252 1Jaime Martínez Verdú Mª Nieves Robles Botella
  • 291. Prácticas de Física de la Visión Ejercicio – Proyecto de iluminación Se puede observar que los pasillos presentan niveles apropiados para áreas decirculación o áreas no utilizadas para trabajar puesto que corresponden a valores porencima de los 200 lux (mientras que la norma obliga a que sean valores entre 50 y 200lux). Con respecto a la zona variada podemos decir que una iluminación de 250 o 300lux es la correcta tal y como indica la norma. Con respecto a las zonas de trabajo como la correspondiente a la fresadora comopara el centro de mecanizado o el torno, tenemos valores cercanos a los 700 y 1.000 luxvalores para los cuales la norma obliga a que estén entre 750 y 1.500 puesto que sontareas con exigencias visuales normales y difíciles también. Por último, hablar sobre el banco de trabajo donde aparecen iluminaciones devalores entre 250 y 300 lux, valores correctos pues se trata de tareas visuales escasas y,en algunas ocasiones, medias. 2Jaime Martínez Verdú Mª Nieves Robles Botella
  • 292. Prácticas de Física de la Visión Ejercicio – Proyecto de iluminación 2. Elección de las luminarias. Se ha optado por aquellas lámparas que son fluorescentes, ya que tienen unascaracterísticas adecuadas para la utilización en el local: • Ofrecen una eficiencia luminosa de 90 lúmenes por vatio. • Se caracterizan por tener una vida media de entre 5000 y 7000 horas. • Índice de Reproducción Cromática del 80%, el cual depende del recubrimiento. • Dependiendo de la temperatura el color de la luz varía desde un color cálido (Tª baja), hasta un color frío (Tª alta). Como las luminarias son las responsables del control y la distribución de la luzemitida por la lámpara, se ha tenido en cuenta a la hora de elegir las luminarias: • La distribución de la luz, el rendimiento del conjunto lámpara – luminaria, además de su instalación y mantenimiento. • Los materiales de las luminarias elegidas son adecuados para resistir el medio ambiente en el que van ha trabajar las luminarias. Por tanto, se opta por utilizar unas luminarias directas, ya que se requiere que lael flujo luminoso se emita mayoritariamente por debajo del plano horizontal queatraviesa la lámpara, con dos planos de simetría y que el grado de protección contra elpolvo sea alto, ya que van a ser utilizadas en una fábrica, razón por la cual lasluminarias son cerradas. Se ha realizado una división del local en cinco zonas distintas dependiendo de sufuncionalidad, ya que en cada una de ellas se requiere una iluminación diferente: 3Jaime Martínez Verdú Mª Nieves Robles Botella
  • 293. Prácticas de Física de la Visión Ejercicio – Proyecto de iluminación 3. Colocación de las luminarias. Zona "torno y fresa" En la zona definida como "torno y fresa" se ha colocado 14 luminarias modelo651-IXC (de 58 W) con una disposición en doble hilera, abarcando así toda la zona detrabajo. Esta elección y distribución de lasluminarias se debe a que la zona a tratar sepuede considerar como zona de exigenciavisual difícil, ya que los trabajos realizadosrequieren de una notable precisión. Como se puede ver, las luminarias se encuentran separadas una distancia de 2 my con una suspensión de 3 m. Con estos parámetros se mejoran la homogeneidad y laintensidad luminosa, puesto que si aumentamos la distancia entre ellas el factor deuniformidad media disminuye, y si la luminaria se encuentra a la altura del local (4 m)la intensidad también es menor. Centro mecanizado Al igual que en el caso anterior, esta zona ha de tener unas características deiluminación bastante buenas (se requiere de unaexigencia visual especial de unos 1000 lux − 1500 lux).Por esta razón, se ha optado en este caso por lautilización de 8 luminarias modelo 651-IXC (de 58 W)con una disposición en doble hilera obteniendo, de estaforma, la iluminación requerida y una homogeneidadelevada. Los datos de la distancia entre luminarias y de suspensión, son idénticos al casoanterior por el mismo motivo pues con estos parámetros se mejoran la homogeneidad yla intensidad luminosa. Bancos de trabajo El nivel de iluminación requerido en esta zona es menor, ya que en ella serealizan trabajos en los cuales la iluminación debe encontrarse entre 200-300 lux debidoa que la exigencia visual es simple. Por tanto, las luminarias seleccionadas, modelo 201-IXC, son de menor potencia concretamente de 18 W, pero la cantidad empleada (cuatrohileras de cuatro luminarias cada una) es mayor debido al área que ocupa la zona y alnivel de uniformidad media y extrema. La orientación en la disposición de lasluminarias difiere con respecto a las anterioresdebido a la disposición de los bancos de trabajo,los cuales se encuentran orientados de maneravertical (la zona con mayor longitud se ubica enel eje X). 4Jaime Martínez Verdú Mª Nieves Robles Botella
  • 294. Prácticas de Física de la Visión Ejercicio – Proyecto de iluminación Pasillo Las luminarias utilizadas en el pasillo son 201-IXC, las cuales proporcionan unapotencia de unos 18 W. No se ha utilizado el otro modelo debido a que en las zonas conestas características, es decir zonas de circulación, el nivel de iluminación es menor queen las zonas de trabajo, ha de variar entre 80-150 lux. Las luminarias se distribuyen en dos hileras de 4 y 5 luminarias las cuales sealternan para tener una relativa uniformidad, el número de luminarias con respecto alárea es menor que en las otras zonas, la distancia entre ellas es menor y la suspensión de3.5 m por el mismo motivo de la elección de éstas, es decir, el nivel de iluminación hade ser bajo. Zona variada En esta zona se ha utilizado el modelo de luminariacorrespondiente al 201-IXC. Esta elección no se ha meditado conprofundidad, ya que esta zona no es de gran utilidad y su uso se limitaa la colocación de objetos y otros utensilios. 5Jaime Martínez Verdú Mª Nieves Robles Botella
  • 295. Prácticas de Física de la Visión Ejercicio – Proyecto de iluminación 4. Descripción de los resultados Analizando cada zona por separado obtenemos: Centro mecanizado Según la normativa en las zonas querequieren una exigencia visual especial se ha deobtener entre unos 1000 – 1500 lux. Los datos obtenidos se encuentran dentrode los valores tabulados para este tipo de zonas,ya que la iluminación media es de 1471.25 lux, yla uniformidad media y extrema son de 0.74 y0.59 respectivamente, indicando con estosvalores que la iluminación se distribuye demanera homogénea. Torno y fresa Los datos obtenidos son similaresa los del caso anterior debido a que lautilización de la zona es muy similar. Portanto, éstos se encuentran dentro de losvalores establecidos por la normativa,teniendo una distribución de iluminaciónóptima para la realización del trabajo enesa zona. 6Jaime Martínez Verdú Mª Nieves Robles Botella
  • 296. Prácticas de Física de la Visión Ejercicio – Proyecto de iluminación Bancos de trabajo En esta zona la iluminación obtenida esla idónea para la realización de trabajos que norequieren una exigencia visual alta, que ese esel caso, ya que según la normativa lailuminación ha de encontrarse entre 300 – 500lux. Como se puede ver los factores deuniformidad se encuentran muy próximos a losestipulados por la normativa. Pasillo Según los resultados se puede apreciarque la iluminación de esta zona se encuentramuy influenciada por la iluminación de laszonas contiguas al pasillo, ya que éstaspresentan una iluminación muy elevada. Lailuminación óptima para este tipo de zonas esde 100 – 150 lux (porque la zona es un área decirculación). Por tanto, no se obtiene losvalores adecuados, debido a este hecho. 7Jaime Martínez Verdú Mª Nieves Robles Botella
  • 297. Prácticas de Física de la Visión Ejercicio – Proyecto de iluminación Zona variada Los valores de esta zona no sondemasiado importantes ya que su uso no estádefinido por tanto, los datos no tienen por queencontrarse dentro de lo establecido. Como se puede observar, los resultados obtenidos son los deseados, ya que laszonas estudiadas cumplen con la normati