UNIVERSIDAD TECNICA PARTICULAR DE LOJA




     DESARROLLO DE LA
       INTELIGENCIA



         PERIODO ACADEMICO


     ...
2


                    LAS CONSTANTES DE LA NATURALEZA

1 .CUESTIÓN DE NÚMEROS

"El libro de la Naturaleza está escrito e...
3




2. PROPORCIÓN ÁUREA

 Pero, ¿por qué es tan importante la constante Phi, también conocida como el número
           ...
4


unidad. A partir de ellos se forma otro cuyo lado mayor es 2, y que sirve como lado de
un nuevo cuadrado. El proceso s...
5



EL PERSONAJE: LEONARDO FIBONACCI


                   La secuencia de Fibonacci se debe a un renombrado
             ...
6


utilizaron estas proporciones en la que se considera su mayor obra de arte: el Partenón
de Atenas. No en vano, Phi es ...
7


directas en cirugía plástica y reparadora, así como para maquillarse.

El doctor Marquardt se atreve incluso a sugerir...
8




Años más tarde, Arquímedes aventuró que Pi estaba entre 3+10/71 y 3+1/7. Más cerca
se quedó, en el 150 d.C., Ptolome...
9


probabilidad de que junto con el número 1 puedan ser los lados de un triángulo
obtusángulo es (Pi-2)/4.

5. EL NÚMERO ...
10


recuperación de una superficie boscosa después de un incendio. Para este tipo de
crecimiento se aplica la siguiente f...
11


 T = Taire + (Tcos - Taire) / ek·t

En ella T es la temperatura, t es el tiempo en horas después de medianoche y k es...
12


nuestro universo, clave para alcanzar la ansiada "teoría del todo". Esta constante es
extraordinariamente importante....
13




El trabajo de Davies surgió como respuesta al enigma propuesto por el astrónomo John
Webb y su equipo de la Univers...
14


Optimizando espacio

En 1606, Sir Walter Raleigh propuso al matemático Thomas Harriot una cuestión que
preocupaba a l...
15


Pero también es verdad que las matemáticas proporcionan modelos para que puedan
realizarse todas las constantes físic...
16



                                     COMPLEJIDAD



1. Definición de un Sistema Complejo


Un sistema complejo es un...
17



Dos años después, por los compromisos que tiene un alto ejecutivo, se compra una
fuerte cantidad de unidades nuevame...
18



complejidad emerge de la cantidad de clientes que se tiene, ya que cada uno de ellos
requiere algo específico. En el...
19




Ya sea consciente o inconscientemente, cualquier decisión que ocurre en la
organización afecta su desempeño y si es...
20



razón es muy sencilla, se acabó el colchón de la ineficiencia para aguantar más decisiones
equivocadas en las empres...
21



Cada uno de estos sistemas está bien estudiado pero desconocemos la forma en que
interactúan y hacen evolucionar el ...
22



CASO DE ESTUDIO: Prueba de Inteligencia (CRUZAR EL RIO)
Esta es una prueba que se aplica en algunos países asiáticos...
23



•   Para empezar da clic en el circulo azul.

•   Para mover a las personas da clic sobre ellas.

•   Para mover la ...
24



AUTOEVALUACIÓN

Responda las siguientes interrogantes:



1. Tiene solución el caso de estudio presentado?

SI      ...
25



                                    INCERTIDUMBRE
1. PROBABILIDAD

El conocimiento sobre la manera en que opera el m...
26


moneda, será menos probable que uno consiga una cantidad precisa del 50%, pero la proporción más
cercana de caras es ...
27


comparación de los dos porcentajes podría indicar si existe una relación real. Aun entonces, es
necesaria la precauci...
28


Mensurando: Magnitud medida por un instrumento.

Valor verdadero: Valor real del mensurando.

Sistema de medición: In...
29


de comparación. Este requerimiento lo satisface la Metrología que es la base científico-
técnica de las NORMAS, Contr...
30


Origen del metro

1791: La Academia de Ciencias de Francia define “metro” como la diez millonésima parte
del cuadrant...
31


densidad                       kilogramo/metro cúbico   kg/m
                                                        ...
32


Múltiplos de unidades SI

NOMBRE        SIMBOLO       POTENCIA
yotta         Y             10
                       ...
33




a) Serie exacta de mediciones repetidas cuyo promedio se aproxima al valor real.

b) Las mediciones realizadas vari...
34


La función de un patrón es proveer un valor verdadero convencional que permite
determinar, por calibración, los valor...
35


                                 ESCALAS MULTIPLES

1. Introducción.

La gama de magnitudes en el universo tamaños, d...
36


es posible predecir la probable respuesta de alguien a un mensaje sin hacer referencia a la
manera en que funcionan l...
37

La escala y su importancia en el análisis espacial

D. García

Departamento de Biología de Organismos y Sistemas (Ecol...
38

necesitamos descomponer el concepto de escala en tres dimensiones (Dungan et al.,
2002): ecológica, de muestreo y anal...
39




Figura 2. Representación de los valores que toma un parámetro a lo largo de una
extensión    espacial,     mostrand...
40

4. El reparto de variación entre escalas

La principal preocupación analítica de los ecólogos en relación a la escala ...
41

La estadística espacial ofrece herramientas diversas para evaluar el grado de agregabilidad
y el reparto de variabilid...
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Upcoming SlideShare
Loading in …5
×

Desarrollo De La Inteligencia Final

2,628 views
2,550 views

Published on

Published in: Education, Travel, Technology
0 Comments
0 Likes
Statistics
Notes
  • Be the first to comment

  • Be the first to like this

No Downloads
Views
Total views
2,628
On SlideShare
0
From Embeds
0
Number of Embeds
0
Actions
Shares
0
Downloads
60
Comments
0
Likes
0
Embeds 0
No embeds

No notes for slide

Desarrollo De La Inteligencia Final

  1. 1. UNIVERSIDAD TECNICA PARTICULAR DE LOJA DESARROLLO DE LA INTELIGENCIA PERIODO ACADEMICO AGOSTO 2007- FEBRERO 2008 LOJA – ECUADOR
  2. 2. 2 LAS CONSTANTES DE LA NATURALEZA 1 .CUESTIÓN DE NÚMEROS "El libro de la Naturaleza está escrito en el lenguaje de las matemáticas". La frase, pronunciada por el astrónomo Galileo Galilei en 1623, tiene hoy plena vigencia. Basta echar un vistazo a nuestro alrededor para comprobar que detrás de todos los fenómenos naturales se esconde alguna clave matemática. Y que ciertos números se repiten continuamente. Así, por ejemplo, las flores tienen en su mayoría 5 pétalos (geranios, pensamientos rododendros,…), aunque también es frecuente encontrar 3 en los lirios, 8 en los ranúnculos y 21 en las margaritas. El 5 es, además, una cifra habitual en las semillas de frutas como pepinos, tomates, peras y manzanas. Las espirales de la piña tropical (ananas) son 8 y 13, igual que las de las piñas de los pinos y otras coníferas. Y en la cabeza de un girasol, las semillas se disponen en espirales de 34 y 55, o 55 y 89. En contra de lo que podríamos pensar a simple vista, esta reiteración de dígitos no responde a un simple "capricho de la Naturaleza". Se trata de los números de la famosa secuencia de Fibonacci (1,1,2,3,5,8,13,21,34,55,…) que un matemático italiano describió hace más de 800 años. La fórmula secreta es sencilla: cada número de la secuencia se genera a partir de la suma de los dos anteriores. Al mismo tiempo, si dividimos cada dígito de la serie por el inmediatamente anterior, el resultado es aproximadamente siempre el mismo: una constante con infinitas cifras decimales conocida con la letra griega Phi (Φ), y cuyo valor es 1,6180339... Lo que es más, a medida que avanzamos en la secuencia de Fibonacci más se acerca el ratio de cada par de números a Phi.
  3. 3. 3 2. PROPORCIÓN ÁUREA Pero, ¿por qué es tan importante la constante Phi, también conocida como el número de oro? Imaginemos que tenemos un segmento y que queremos fraccionarlo en dos partes de tamaños distintos. Podemos hacerlo de muchas formas, por ejemplo dividiéndolo de forma que la parte mayor sea el triple que la menor. Sin embargo, sólo existe una forma de dividir el segmento de modo que la relación (razón) que haya entre el segmento completo y la mayor de las partes en que se divide sea igual a la que mantienen las dos partes entre sí. Decimos entonces que ambas partes se hayan en proporción áurea, y su valor es Phi. Utilizando los números de la sucesión de Fibonacci podemos construir una serie de rectángulos áureos, es decir, en los que los lados siempre mantienen esa proporción áurea. Basta con empezar dibujando dos pequeños cuadrados que tengan por lado una
  4. 4. 4 unidad. A partir de ellos se forma otro cuyo lado mayor es 2, y que sirve como lado de un nuevo cuadrado. El proceso se puede repetir indefinidamente. Lo más llamativo es que si unimos los vértices de estos rectángulos se forma una curva que seguramente nos resulta familiar. Se trata de una espiral casi idéntica a la que aparece en las conchas de moluscos como el Nautilus, en el crecimiento de las hojas de una planta, en los huracanes, en la forma de la Vía Láctea, en los cuernos de los rumiantes e incluso en la cóclea o caracol de nuestro oído interno. Además de su omnipresencia, esta espiral, apodada logarítmica, tiene la peculiaridad de que, aunque aumente su tamaño, la forma - proporciones- no se altera. Más allá de la forma, la serie de Fibonacci aparece también en la genealogía de ciertas especies. Es el caso de los machos o zánganos de una colmena. La clave está en que las abejas hembras de la colmena nacen de los huevos fertilizados (tienen padre y madre), mientras los machos o zánganos nacen a partir de huevos no fertilizados, o lo que es lo mismo, sólo tienen madre. De esta forma, sus árboles genealógicos siguen estrictamente una distribución de Fibonacci: un macho (1) no tiene padre, sino una madre (1,1), dos abuelos - padres de la reina - (1,1,2), tres bisabuelos - porque el padre de la reina sólo tiene madre - (1,1,2,3), cinco tatarabuelos (1,1,2,3,5), etc. El cuerpo humano tampoco es ajeno al número de oro. Con su conocido dibujo del hombre de Vitrubio, Leonardo da Vinci ilustró el libro "La Divina Proporción" del matemático Luca Pacioli, editado en 1509. En dicha obra se describen cuáles han deben ser las proporciones de las creaciones artísticas. Pacioli propone una figura humana en la que las relaciones entre las distintas partes de su cuerpo son proporciones áureas. Así, en este hombre armónicamente perfecto para Pacioli, el cociente entre la altura del hombre - el lado del cuadrado - y la distancia del ombligo a la punta de la mano - el radio de la circunferencia - es el número áureo. Y no es el único caso. En la mayoría de los huesos que integran nuestro esqueleto aparece insistentemente Phi. Así, por ejemplo, los tres huesos de cada dedo de la mano están relacionados por esta constante. Y en el campo de la odontología, se ha descubierto que la dentadura va creciendo siguiendo proporciones áureas, de forma que las anchuras de los cuatro dientes frontales, desde el incisivo central hasta el premolar, se encuentran entre si en proporción áurea. La molécula de ADN, que contiene el libro de la vida, también se ajusta a la proporción áurea. Cada ciclo de su doble hélice mide 34 angstroms de largo por 21 angstroms de ancho, dos números de la secuencia de Fibonacci cuyo ratio es, por supuesto, Phi.
  5. 5. 5 EL PERSONAJE: LEONARDO FIBONACCI La secuencia de Fibonacci se debe a un renombrado matemático italiano de la Edad Media. Su nombre completo era Leonardo de Pisa (1170-1240), aunque él se llamaba a sí mismo Fibonacci, como diminutivo de "hijo de Bonacci" (filius Bonacci), en honor al apodo de su padre. Hijo de diplomático, se educó en el norte de África y recorrió en su juventud varios países de Oriente Medio. Una vez de vuelta a Europa, recopiló todo lo aprendido en un tratado de álgebra y aritmética titulado "Liber abaci" (Libro del cálculo), escrito en latín, que permitió expandir en Europa la notación decimal de origen indo-árabe que usamos actualmente, con los signos hindúes 1,2,3….,9, y el 0 árabe. En este libro hacía también mención, por primera vez, a la sucesión que hoy llamamos de Fibonacci en un problema sobre la reproducción de los conejos. Varios siglos después, un matemático europeo llamado Edouard Lucas (1842- 1891) estudió la secuencia de Fibonacci y descubrió que dividiendo dos números consecutivos se obtenía la proporción áurea. La fórmula de la eficiencia Durante mucho tiempo, los científicos han tratado de explicar por qué se repiten con tanta frecuencia estos números y proporciones en el universo. La filotaxia, área de la botánica dedicada al estudio de la disposición de las hojas sobre el tallo, parece haber dado con una respuesta. Cuando una planta crece, la estrategia que utiliza para garantizar su supervivencia consiste en maximizar la distancia entre las ramas y las hojas, buscando ángulos que no se solapen y en los que cada una de ellas reciba la mayor cantidad de luz, agua y nutrientes posible. El resultado es una disposición en trayectoria ascendente, y en forma de hélice, en la que se repiten los términos de la sucesión de Fibonaci. En definitiva, la naturaleza no entiende de matemáticas, sino de eficiencia. Eso mismo es lo que viene a decir un reciente estudio del matemático Alan Newell, de la Universidad de California. Tras observar la secuencia de Fibonacci en la disposición de semillas en cactus, puso en marcha un análisis detallado de la forma de estas plantas, el grosor de su piel y otros parámetros que dirigen el crecimiento. Al introducir los datos en un ordenador descubrió, con sorpresa, que las configuraciones que la computadora identificaba como más estables estaban siempre ligadas a las formas de Fibonacci presentes en los seres vivos. Y es que aquel matemático italiano halló, sin pretenderlo, la clave del crecimiento en la Naturaleza. 3. EL NÚMERO DE LA BELLEZA En el terreno de las creaciones artísticas, Phi no ha pasado desapercibida. El conocimiento de la sección áurea y el rectángulo dorado se remonta a los griegos, que
  6. 6. 6 utilizaron estas proporciones en la que se considera su mayor obra de arte: el Partenón de Atenas. No en vano, Phi es la inicial del nombre del escultor griego que supervisó la construcción del templo, el original Fidias. Tal es la reputación de Phi, que se dice que este número ha formado parte del "conocimiento secreto" protegido por generaciones de francomasones, illuminati, caballeros de la Orden de Rosacruz y otras sociedades secretas. Secreto o no, lo cierto es que las proporciones áureas han inspirado a arquitectos, pintores, escritores e incluso músicos de todas las épocas. Los expertos hablan de que construcciones tan antiguas como las pirámides egipcias se levantaron bajo el principio del número de oro. Obras maestras de Leonardo da Vinci, Miguel Ángel, Durero o Dalí, entre otros pintores, llevan la marca de la divina proporción. De Mozart se dice que dividió algunas de sus sonatas en dos partes que reflejan casi exactamente la proporción áurea. Stradivari la utilizó para construir sus famosos violines. Las dimensiones del edificio de la sede de la ONU en Nueva York poseen la proporción áurea, con el fin de conseguir el orden arquitectónico perfecto en el epicentro de la organización que rige los designios del mundo. Incluso, intencionalmente o no, en el libro del Génesis de la Biblia se describe que "el arca (de Noé) tendrá 450 pies de largo, 75 pies de ancho y 45 de altura", donde la proporción de 75/45 es de nuevo el número dorado. Sin olvidar que algo tan cotidiano como las actuales tarjetas de crédito, o nuestro carné de identidad, mantienen esa misma proporción. El motivo para la gran propagación de Phi hay que buscarlo en su supuesta relación con la belleza y la armonía. Aunque, todo hay que decirlo, son muchos los científicos dudan de que nuestra percepción de lo que es bello esté vinculada a este número. De momento, las investigaciones de Stephen Marquardt, investigador de la Universidad de California, parecen dar un espaldarazo al vínculo entre belleza y proporción áurea. Tras examinar multitud de rostros humanos y realizar numerosas encuestas, este cirujano ha llegado a la conclusión de que los rostros considerados más atractivos son aquellos cuyas partes determinan longitudes que están en proporción áurea. Y esta relación, señala, no depende de las diferencias existentes en la concepción de belleza según razas, culturas o épocas. La máscara áurea Fruto de sus pesquisas, Marquardt ha construido una máscara facial en la que utiliza la razón áurea para establecer la distancia ideal entre los diferentes elementos de un rostro. La belleza de una cara puede ser determinada según la desviación que presentan sus distintas partes respecto a lo que establece la máscara. Así, por ejemplo, el rostro de la actriz Michelle Pfeiffer se ajustaría exactamente a los cánones áureos de la máscara. Su invento, asegura, tiene aplicaciones
  7. 7. 7 directas en cirugía plástica y reparadora, así como para maquillarse. El doctor Marquardt se atreve incluso a sugerir una finalidad biológica para la belleza. Según el investigador, se trata de un mecanismo para asegurar que los humanos se reconocen entre sí y se sienten atraídos por miembros de su misma especie. Las caras más hermosas son las que resultan más fácilmente reconocibles como humanas, algo que sabemos comparando inconscientemente un rostro con el rostro ideal que tenemos en nuestra mente. "La belleza es sencillamente humanidad", afirma. 4. Pi Y LOS CÍRCULOS Más conocida, y quizás por ello menos impactante, es la omnipresencia de la constante Pi (π =3,141592653…) en las formas circulares. Y es que, en cualquiera de ellas, la longitud de la circunferencia dividida por su diámetro coincide siempre con este número. El primer intento de estimar el valor de Pi se atribuye a los Babilonios, que en el año 2000 a.C. aseguraban que equivalía a 3 1/8 (3,125). En la misma época los indios utilizaban la raíz cuadrada de 10 para Pi (3,1622…). Pero ambas aproximaciones tenían un error a partir del segundo decimal.
  8. 8. 8 Años más tarde, Arquímedes aventuró que Pi estaba entre 3+10/71 y 3+1/7. Más cerca se quedó, en el 150 d.C., Ptolomeo de Alejandría, que hablaba de 377/120 (3,14166667…). El chino Tsu Ch'ung-Chi, en el año 350, acertó hasta tres decimales con la fracción 355/113 (3,14159292…). Pero hubo que esperar a 1761 para que un matemático llamado Lambert probara que se trataba de un número irracional, es decir, imposible de obtener a partir de ninguna fracción, lo que implicaba que el cálculo de sus decimales no acabará nunca. A partir de aquel momento se puso en marcha una carrera para calcular el mayor número de decimales posible, especialmente impulsada a partir del siglo pasado con el uso de ordenadores. En 1949, John Von Neumann utilizó la computadora electrónica ENIAC, y tras setenta horas de trabajo obtuvo 2037 cifras decimales. En la actualidad, el récord lo ostenta Yasumasa Kanada, de la Universidad de Tokio, que en 2002 extrajo 1,24 billones de decimales para Pi. Toda una hazaña. Pi natural A pesar de que en la Naturaleza no existen esferas tan perfectas como una bola de billar, ni cilindros ideales, la ubicuidad de Pi es innegable. No sólo aparece cuando una gota cae en el agua o en la curvatura del arcoiris. En el mundo animal, la altura de un elefante, del pie al hombro, se obtiene multiplicando Pi por 2 y por el diámetro de su pie. Cualquier onda o espectro contiene a Pi, lo que supone su presencia en la luz y en cualquier vibración sonora, incluyendo las composiciones musicales. Además cobra especial significado a la hora de calcular el movimiento de los planetas y las estrellas, incluso el tamaño del Universo. Y en el mundo subatómico, los físicos se han topado con Pi en las supercuerdas, esos elementos últimos de la materia con los que se espera poder unificar de una vez por todas las leyes de la física. Por su parte, un geólogo de la Universidad de Cambridge llamado Hans-Henrik Stolum ha calculado el ratio entre la longitud real de los principales ríos, desde su nacimiento hasta su desembocadura, y lo que mide la línea recta entre ambos puntos. El resultado medio para todos los ríos es aproximadamente 3,14, cercano al valor de Pi. Esta constante entiende también mucho de probabilidades. Basta saber, por ejemplo, que la probabilidad de que dos enteros positivos escogidos al azar sean primos entre si es 6/Pi2. O que si se eligen al azar dos números positivos menores que 1, la
  9. 9. 9 probabilidad de que junto con el número 1 puedan ser los lados de un triángulo obtusángulo es (Pi-2)/4. 5. EL NÚMERO e El desarrollo de una colonia de bacterias, las encuestas de población, la prueba del carbono 14 para datar restos orgánicos, e incluso la probabilidad de sacar 70 veces un número par al lanzar un dado un centenar de veces tienen algo en común: un extraño número comprendido entre 2 y 3, con infinitas cifras decimales y llamado e, o número de Euler (e = 2.71828 18284 59045 23536 02874 7135...). Aunque las primeras referencias a este número datan de 1618, fecha en la que John Napier publicó su valor junto a otros logaritmos, fue el matemático suizo Leonhard Euler quién empleó por primera vez la letra e en 1727 para nombrarlo. Este genio, del que se decía que "calculaba sin aparente esfuerzo, como los hombres respiran o las águilas se sostienen en el aire", mostró que el número e podía ser la base más "natural" para los logaritmos, que en aquella época eran de gran ayuda para realizar operaciones aritméticas. Además, ideó una fórmula bautizada como identidad de Euler y considera por muchos como la más bella e importante de las matemáticas: En ella se aúnan, de forma escueta, varios conceptos claves de esta ciencia: π, el número más importante de la geometría. e, el número mas importante del análisis. i, el número mas importante del álgebra. Del bosque a la mesa forense Más allá de su belleza matemática, el número e tiene importantes implicaciones en el mundo que conocemos. En biología, por ejemplo, una de sus principales aplicaciones es el crecimiento exponencial. Este tipo de crecimiento surge cuando no hay factores que limiten el crecimiento, como ocurre en ciertas poblaciones de bacterias, o en la
  10. 10. 10 recuperación de una superficie boscosa después de un incendio. Para este tipo de crecimiento se aplica la siguiente fórmula: N = No · et Esto nos permite adivinar cual será la población (N) en un determinado tiempo (t) a partir de la población inicial (No). A la hora de datar un fósil, la constante de Euler también está presente. A mediados del siglo XX, un químico llamado Libby descubrió el carbono-14, un isótopo radiactivo del carbono que desaparece lentamente. El C14 reacciona con el oxígeno en las capas altas de la atmósfera dando dióxido de carbono radiactivo, el cual entra en la superficie de la Tierra, en la que se desarrolla la vida. Mientras un ser está vivo, va reponiendo el C14 que pierde, pero cuando ese ser muere, sólo se producirá en él una pérdida continua y lenta de C14. Una vez que los químicos consiguieron llegar a medir la cantidad de C14 contenida en un ser no vivo, como se conocía la velocidad de desintegración del C14, se lanzaron a buscar una ecuación que les diera como solución el tiempo necesario para que en ese ser quedara tan solo esa cantidad de C14. Y se encontraron con la sorpresa de que la fórmula contenía al número e. Los forenses, como los paleontólogos, también deben tener este número en cuenta. Y es que e permite determinar en un asesinato el momento de la muerte. Para ello es necesario aplicar la ley de Newton sobre el enfriamiento que establece que la velocidad a la que se enfría un cuerpo es proporcional a la diferencia entre la temperatura del objeto y la temperatura del entorno. Esto quiere decir que cuando un objeto está mucho más caliente que el aire exterior, su velocidad de enfriamiento es alta, de manera que pierde temperatura muy rápidamente. Por el contrario, cuando un cuerpo está un poco más caliente que su entorno, su velocidad de enfriamiento es baja. Una persona viva no se enfría continuamente. El metabolismo humano asegura el mantenimiento de la temperatura del cuerpo alrededor de los 36ºC. Pero, una vez muertos, nuestro organismo deja de producir calor y, por tanto, comienza a enfriarse siguiendo la ley de Newton, que se aplica con la fórmula matemática siguiente:
  11. 11. 11 T = Taire + (Tcos - Taire) / ek·t En ella T es la temperatura, t es el tiempo en horas después de medianoche y k es una constante. De nuevo e está presente. Hay más. Esta constante también está ligada a la razón áurea y a la espiral logarítmica. Cuando se cuelga una cadena o un cable por los extremos, tiende a adoptar una forma que se relaciona con el número e. Incluso en algo tan mundano como el cálculo de los intereses bancarios es necesario recurrir a la constante de Euler. 6. LAS CONSTANTES DE LA FÍSICA Existen alrededor de 25 constantes físicas que aparecen en las fórmulas que describen nuestro universo, desde lo más grande (los cúmulos de galaxias) hasta lo más pequeño (los quarks). De esas 25 constantes, los físicos consideran que las más importantes son c (la velocidad de la luz), G (la constante de la gravitación) y h (la constante de Planck, que gobierna el mundo de los átomos). A diferencia de los números vistos hasta ahora, se trata de constantes estimadas en el laboratorio para explicar fenómenos físicos y expresadas en unidades, por lo que dependen de éstas. Así, por ejemplo, la velocidad de la luz tiene un valor de 299.792.458 metros por segundo. Y la constante de Planck, 6,63 × 10-34 julios por segundo. Aparentemente no hay nada "mágico" en estas cifras. La sorpresa surge cuando se combinan c y h con otra constante, la carga del electrón (e), obteniendo un número sin unidades ni dimensiones: 7,297352533x10-3. Esta constante, también conocida como alpha, es la "constante de la estructura fina", que describe cómo actúan las fuerzas a nivel atómico. Los físicos creen que se trata de una pieza importante en el desarrollo de
  12. 12. 12 nuestro universo, clave para alcanzar la ansiada "teoría del todo". Esta constante es extraordinariamente importante. Si su valor fuera solo algo diferente, nuestro universo sería completamente distinto. Por ejemplo, sabemos que el agua es 107 veces más opaca a la radiación ultravioleta e infrarroja que a la luz visible. Dado que el tejido vivo en general y los ojos en particular están compuestos mayormente por agua, la comunicación por la vista sería imposible si no fuera por el hecho de que la transmisión de la luz por el agua concuerda con la radiación del sol, algo posible gracias a una determinación cuidadosa de los valores de las constantes de la fuerza de gravedad y la fuerza electromagnética, además de la constante de Planck y la masa del electrón. Por otro lado, si se divide la intensidad del campo eléctrico que mantiene unidos los átomos por la fuerza de la gravitación universal, que determina la formación y el mantenimiento de las galaxias, estrellas, planetas y satélites en sus órbitas, también obtenemos un número fijo: un 1 seguido de 36 ceros. Esta constante, conocida como N, es tan importante que, si tuviera menos ceros, el Universo sería mucho más pequeño y efímero, no podrían existir criaturas de mayor tamaño que un insecto y no habría tiempo suficiente para la evolución de las especies. Igual de crítico es el valor constante que relaciona la fuerza nuclear fuerte con la fuerza electromagnética. Si esta relación aumentase en sólo el 2% el universo se quedaría sin hidrógeno y sin agua, medio indispensable para la vida. La constante omega (Ω), relacionada con la densidad del Universo, determina la cantidad de materia oscura. Y la constante cosmológica de Einstein, denotada por la letra griega lambda (λ), representa la fuerza de la "antigravedad", y es fundamental para explicar la expansión del Universo. El extraordinario equilibrio que esto supone ha fascinado durante siglos a científicos de todo el mundo. El premio Nóbel de Física Arno Penzias expresaba así el carácter enigmático del universo: "La astronomía nos lleva a este evento único, un universo que fue creado de la nada y que está equilibrado delicadamente para proveer exactamente las condiciones requeridas para sustentar la vida. En la ausencia de un accidente absurdamente improbable, las observaciones de la ciencia moderna parecen sugerir un plan subyacente que podríamos llamar sobrenatural." ¿Está cambiando la velocidad de la luz? Como su propio nombre indica, se supone que las constantes físicas permanecen inmutables, reflejando una constancia subyacente de la naturaleza, eterna y universal, en todos los tiempos y los espacios. Este es un pensamiento heredado de los padres de la ciencia moderna, como Copérnico, Kepler, Galileo, Descartes o Newton, para quienes las leyes de la naturaleza eran ideas inalterables de una mente divina. Dios era un matemático, y el descubrimiento de las leyes de la naturaleza es una incursión en su Mente. Sin embargo, en algunos casos la experimentación parece desmentir esta permanencia, sugiriendo que ciertas constantes podrían cambiar a lo largo del tiempo. Ese sería el caso de la velocidad de la luz, que podría haberse ralentizado a lo largo del tiempo, según proponía hace unos años en la revista Nature el astrofísico y escritor australiano Paul Davies, conocido por sus investigaciones en torno de los agujeros negros y el comienzo del universo.
  13. 13. 13 El trabajo de Davies surgió como respuesta al enigma propuesto por el astrónomo John Webb y su equipo de la Universidad de Sidney. Analizando la luz llegada "del pasado" de un cuásar distante - objeto celeste similar a una estrella -, Webb llegó a la conclusión de que la constante de estructura fina de la luz del cuásar era alrededor de una millonésima parte más pequeña de lo previsto. Davies investigó cuál de las constantes sobre las que está basada alfa había variado a lo largo del tiempo y llegó a la conclusión de que debía ser la velocidad de la luz. "Si la velocidad de la luz varía, el Big Bang podría haber sido hace doce o quince mil millones de años -afirmó Davies-. La velocidad de la luz podría haber sido infinita en ese momento, lo que explicaría muchas cosas de nuestro universo actual". Y es que la supuesta variación de esta constante, además de contradecir la teoría de la Relatividad de Einstein, podría dar explicación a fenómenos como la temperatura casi uniforme del Universo, así como reforzar las teorías sobre las dimensiones espaciales adicionales. Davies no es el único que aporta pruebas en esta dirección. En 2004, analizando el reactor nuclear natural de hace 2.000 millones de años que fue encontrado en 1972 en Oklo, en África Occidental, algunos científicos señalaron que la constante alpha por aquellas fechas podría haber sido ligeramente mayor, lo que en principio supondría que la velocidad de la luz habría variado en los dos últimos milenios. Otros investigadores discrepan con estas interpretaciones, y aseguran que las diferencias observadas podrían explicarse por una variación en la intensidad de la fuerza electromagnética entre los electrones. Aún queda mucho trabajo por hacer, aseguran, antes de afirmar que la velocidad de la luz u otras "constantes universales" podrían estar cambiando. 7. OPTIMIZACIÓN EN EL UNIVERSO Por Manuel de León, Vicepresidente de la Real Sociedad Matemática Española y Académico de la Real Academia de Ciencias Exactas, Físicas y Naturales. Las matemáticas nos enseñan las pautas escondidas en las masas de datos con las que el universo nos bombardea continuamente. Pero esas pautas obedecen a una necesidad de optimizar. Al terminar de leer este artículo quédese con esta pregunta: ¿optimiza el universo las constantes físicas?
  14. 14. 14 Optimizando espacio En 1606, Sir Walter Raleigh propuso al matemático Thomas Harriot una cuestión que preocupaba a la Armada inglesa: ¿cuál es la mejor manera de apilar las balas de cañón en las cubiertas de los barcos? Harriot escribió a su colega Johannes Kepler. La respuesta fue la llamada conjetura de Kepler: justamente la manera de apilar las naranjas en las fruterías. Con algo más de tecnicismo, ninguna naranja más se puede introducir en el mismo receptáculo. La densidad medida como la razón entre el espacio ocupado y el espacio total es precisamente π/18. Aunque pueda parecer obvio, los matemáticos llevan ya casi cuatro siglos intentando probar que esto es así, en gran medida porque la demostración conlleva una enorme cantidad de cálculos de ordenador. En 1998, el matemático norteamericano Hales presentó una demostración que todavía no ha sido aceptada definitivamente; el propio autor estima que tendrá una prueba formal en 20 años más. Pero no crea que los matemáticos nos dedicamos a problemas que los fruteros han resuelto hace mucho tiempo: el plegamiento de las proteínas es tampoco una versión compleja de los problemas de empaquetamiento. Optimizando tiempo Usted seguramente habrá sufrido el invierno pasado una gripe anual. El esquema es bien conocido: dos días para desarrollar la enfermedad y una semana para curarse. Los virus crecen exponencialmente (parecen conocer a nuestro amigo el número e) y. ante su ataque, el organismo reacciona lentamente. Esta es la respuesta correcta, que eones de evolución han enseñado: si la respuesta fuese tan rápida como el ataque, se produciría un equilibrio, y usted arrastraría su gripe durante largos años. Al ser lenta, el organismo puede hacer acopio de anticuerpos y dar un ataque masivo. Le sorprenderá saber que este modelo matemático es exactamente el mismo que produce esos maravillosos patrones coloridos de las conchas marinas. ¡Pareciera que la naturaleza optimizase también la cantidad de matemáticas que precisa! Optimizando el crecimiento Todos conocemos esos maravillosos campos de girasoles. Observemos uno de ellos: veremos muchas espirales entrelazadas y, si contamos las que giran a izquierda y las que lo hacen a la derecha, encontramos siempre dos términos consecutivos de la sucesión de Fibonacci. ¿Cuál es la causa? El girasol va creciendo paso a paso, con mucho cuidado, produciendo las proto-hojas optimizando el espacio que ocupan. Ese crecimiento cuidadoso con números enteros es capaz de producir el a veces llamado el más irracional de los números, el número Φ. ¿Son las constantes "constantes"? Hay ciertos números que aparentan ser "mágicos", y a la vez, hay constantes físicas que no le van a la zaga. ¿Cuáles son más "constantes"? Lo cierto es que la física de los primeros segundos de nuestro universo parece haber producido las constantes que ahora observamos, que, de pasada, son las que permiten que un ser humano (yo en este caso) esté ahora escribiendo un artículo (recuerden el principio antrópico). Pero no puede hablarse en realidad de "constantes matemáticas", sino de números. Hay una cantidad infinita de números irracionales como π, e o Φ; y desde un punto de vista estrictamente matemático, no hay diferencias entre unos y otros.
  15. 15. 15 Pero también es verdad que las matemáticas proporcionan modelos para que puedan realizarse todas las constantes físicas. ¡Esta es "la irrazonable efectividad de las matemáticas" de la que hablaba el premio Nóbel de Física Paul Wigner!
  16. 16. 16 COMPLEJIDAD 1. Definición de un Sistema Complejo Un sistema complejo es un sistema compuesto por varias partes interconectadas o entrelazadas cuyos vínculos contienen información adicional y oculta al observador. En un sistema complejo, existen variables ocultas cuyo desconocimiento nos impide analizar el sistema con precisión. Así pues, un sistema complejo, posee más información que la que da cada parte independientemente. Para describir un sistema complejo hace falta no solo conocer el funcionamiento de las partes sino conocer como se relacionan entre sí. 2. Complejidad en lo cotidiano La definición de complejidad tiene que ver con la diversidad de elementos que componen una situación; un todo que se compone de partes que interactúan y que estas a su vez se encuentran en contacto con su medio ambiente. Desde este ángulo, todo es complejidad. Toda nuestra vida está rodeada del concepto de complejidad. La complejidad no tiene una sola forma de definirse y entenderse, esto es, la definición de complejidad depende del punto de vista del observador, como menciona Warfield (1994). Algo que es complejo para un observador tal vez no lo será para un segundo observador o para un grupo de observadores. Desde esta perspectiva la complejidad se nos presenta como el diferencial entre la demanda de recursos (materiales, intelectuales, valores, etc.) para enfrentar una situación y los recursos de que dispone el observador. Es sencillo, si la situación que se presenta (desde el punto de vista de algún observador) demanda de gran cantidad de recursos (de cualquier índole) y no se cuenta con los recursos necesarios para afrontar esa situación (por su dinámica y características propias) entonces estamos frente a una situación compleja. 3. Tipos de Complejidad Una empresa adquiere una nueva y numerosa flotilla de camiones estandarizados de un solo proveedor para la entrega de sus productos. La realización de reparaciones, manejo de las partes, y control de refacciones, requiere del desarrollo de habilidades y aprendizaje que debe acumularse dentro del equipo de gente que tiene a su cargo la tecnología de reparto de producto.
  17. 17. 17 Dos años después, por los compromisos que tiene un alto ejecutivo, se compra una fuerte cantidad de unidades nuevamente, pero de distinto proveedor. Sobra comentar que el esfuerzo requerido dentro de la organización para la administración, control y seguimiento de, aunque aparentemente dos tecnologías similares, requiere de un desgaste de energía abundante, de un despliegue de talento adicional y de una administración más compleja de una situación que ya había sido estabilizada. Este simple ejemplo, muy específico y común en el contexto organizacional, cae dentro de una serie de situaciones que se presentan a diario dentro de cualquier empresa. De esta situación podemos concluir lo siguiente: 1. El dominio de una simple tecnología es un proceso de aprendizaje que requiere tiempo. Está implícito cierto grado de complejidad con el que habrá que lidiar. 2. A medida que se agregan mas variables a las existentes, la necesidad de contar con la infraestructura para su administración debe ser mayor (demanda mayor tiempo, talento y recursos). 3. Esta situación se muestra como una de las más características dentro de cualquier organización. Donde para la toma de decisiones se parte de ciertas bases, variables y supuestos. Sin embargo no se tiene un criterio común para evaluar el impacto positivo o negativo de la decisión y sus posibles efectos secundarios a todos los sistemas involucrados. Tampoco se cuenta con una idea clara de lo que esta decisión implica en el incremento del nivel de complejidad en el tiempo. Este tipo de complejidad organizacional adquirido pudiera llamarse "provocada", puesto que se contaba con la información para decidir por el tipo de proveedora seleccionar. Esto es, la decisión correcta hubiera sido idealmente seleccionar la misma tecnología, esto permitiría un mejor control del sistema en cuestión, que a su vez se traduciría en una mayor eficiencia de la organización como un todo. Aquí vemos que no todo en la organización es "aleatorio"; la cantidad de circunstancias de desgaste por energía disipada que se generarán gracias a una mala decisión serán mayores debido a que la exigencia del sistema crece en diferentes variables. El sistema ahora requiere más atención y si la organización no cuenta con los recursos adecuados para administrarlo correctamente entonces la situación se volverá ineficiente. Tratando entonces de clasificar los diferentes tipos de complejidad que se pueden encontrar en las organizaciones, pudiéramos mencionar las siguientes categorías: A. Complejidad de Origen.- Debida a las características de la tecnología, producto e infraestructura que demanda naturalmente a la organización. El tipo de complejidad de diseño es aquella que surge de los componentes básicos de la organización y sus interrelaciones para poder operar: La tecnología, su organización, el mercado, el tipo de producto, sistema de manejo de materiales, sistema de distribución, etc. Dentro de la complejidad de origen podemos decir que juega un papel fundamental la Tecnología. Existen innumerables estudios que marcan a la tecnología como una de las principales variables que definen la configuración de la organización, puesto que en base al proceso de transformación se empiezan a desplegar requerimientos para llevarla a cabo. Existen tecnologías muy sencillas de administrar pero donde la
  18. 18. 18 complejidad emerge de la cantidad de clientes que se tiene, ya que cada uno de ellos requiere algo específico. En el otro extremo están las compañías que se encuentran dentro del mercado de la innovación y que demanda gran coordinación entre sus elementos, desde que se diseña el producto hasta que se lanza al mercado, pasando por sus etapas de prueba y fabricación. Cada una de ellas guarda su complejidad propia y demanda de recursos y actores capacitados para administrar ese nivel de complejidad implícito. B. Complejidad Residual.- El tipo de complejidad no administrada nace en el momento en el que la variedad demandada excede a la variedad del sistema y que genera un diferencial acumulable. Complejidad resultante de los procesos normales dentro de la organización; conflictos en la toma de decisiones, descontrol de procesos, programación de la producción, reclamaciones del cliente, etc. Dentro de la complejidad residual juega un papel primordial la interacción de los vectores Tecnológico, Administrativo y Humano. Este tipo de complejidad esta más identificada con los procesos que se generan día a día en la organización al operar el sistema. La organización tiene que lidiar con ella todo el tiempo y es el talento del personal y la sinergia de grupo la que logra que se salga adelante una y otra vez, aunque si no se cuenta con lo recursos adecuados, la entropía tenderá a desarrollarse con el tiempo matando al sistema. C. Complejidad Provocada.-Complejidad resultante de fenómenos no atribuibles a situaciones normales, como son grupos de poder que toman decisiones inconscientemente (?) en la organización para su propio beneficio. Surge por razones ajenas a los fines de la organización y más bien se produce obedeciendo a los intereses personales de la gente, los intereses de grupos de poder internos, los intereses organizacionales de doble cara, como son el promover una estrategia de mejora en la organizacional pero para lograr beneficios personales en cuanto a proyección, aprendizaje o para perpetuarse en el poder. Este tipo de complejidad es muy difícil de detectar y pienso que es a la que hay que temerle más. Como menciona Gerad Egan (1996, pag 3) en su libro El Valor Agregado de los Empleados en las Organizaciones: "Comprender y administrar el lado oculto de la empresa es una parte clave de la sabiduría pragmática que se requiere para enfrentar los cambios desconcertantes que están ocurriendo en el lugar de trabajo". No se puede negar que cada persona dentro de la organización tenga la necesidad y el derecho de hacer carrera dentro de la organización, pero hay que entender que el primer objetivo de la empresa es que esta sea negocio y no precisamente para beneficio de algunos.
  19. 19. 19 Ya sea consciente o inconscientemente, cualquier decisión que ocurre en la organización afecta su desempeño y si esta no se toma buscando antes que nada el beneficio de la empresa, entonces estaremos agregando mas elementos que contribuyan a desgastar al sistema y mermen su equilibrio dinámico. Son muy clásicos los estudios sobre administración de la tecnología donde el grupo que controla los principales procesos de la organización se resiste al cambio poniendo objeciones a los cambios propuestos en aras de la mejora. Esto no es un absurdo; la gente dentro de la organización quiere conservar lo que hasta ese momento ha ganado con mucho sacrificio. Cualquier cambio en el status quo pone en peligro su lugar en la organización y esta o estas personas harán hasta lo imposible por no ceder. Lo triste de la historia es que la organización pierde tiempo valioso para fortalecerse al adaptarse a su medio ambiente, y esto representa de alguna manera quitarle sus defensas ante los ataques de la competencia. En la complejidad provocada juega un papel predominante la cultura y el liderazgo. Todos estos tipos de complejidad ocurren cada día en el entorno organizacional, algunos con más fuerza que otros, por la realidad situacional muy particular que se vive internamente. Sin embargo si no son identificados estas variedades de complejidad y administrados adecuadamente la organización perderá la energía que existe, llevando consigo al desgaste, y la caída paulatina del sistema. Y la
  20. 20. 20 razón es muy sencilla, se acabó el colchón de la ineficiencia para aguantar más decisiones equivocadas en las empresas. 4. Características de la Complejidad 1. La Complejidad puede ocurrir en sistemas naturales, aquellos diseñados por el hombre e incluso en estructuras sociales. 2. Los sistemas dinámicos complejos pueden ser grandes o pequeños; de hecho en algunos sistemas complejos, los elementos grandes y pequeños viven cooperativamente. 3. La forma física puede ser regular o irregular. 4. Como una regla, entre más grande es el número de partes del sistema, existe mayor probabilidad de ocurrencia de la complejidad. 5. La complejidad puede ocurrir en sistemas disipadores (en contacto con su medio ambiente y que se desgastan al operar) o conservadores de energía (como el movimiento planetario). 6. Los sistemas no son completamente probabilísticos ni completamente determinísticos; exhiben ambas características. 7. Las causas y efectos de los eventos que el sistema experimenta no son proporcionales. 8. Las diferentes partes de sistemas complejos están conectadas y afectan una a otra de una manera sinergética. 9. El nivel de complejidad depende de las características del sistema, su medio ambiente, y la naturaleza de las interacciones entre ellos. 10. Los sistemas complejos son abiertos, en el sentido de que intercambian materia, energía e información con su medio ambiente. 11. Los sistemas complejos tienden a generar procesos irreversibles. 12. Los sistemas complejos son dinámicos y no se encuentran en equilibrio. 13. Muchos sistemas complejos no son bien comprendidos y frecuentemente generan cambios que sugieren que las relaciones funcionales que los representan no son diferenciables (de fácil solución). 14. Existen paradojas como eventos rápidos y lentos, formas regulares e irregulares, y cuerpos orgánicos e inorgánicos en cohabitación. 5. Ejemplos Un ejemplo típico de sistema complejo es la Tierra. La tierra está formada por varios sistemas simples que la describen: • Campo gravitatorio. • Campo magnético. • Flujo térmico. • Ondas elásticas. • Geodinámica.
  21. 21. 21 Cada uno de estos sistemas está bien estudiado pero desconocemos la forma en que interactúan y hacen evolucionar el sistema 'Tierra'. Hay, pues, mucha más información oculta en esas interrelaciones de sistemas. Otros sistemas complejos típicos son: • Terremotos y volcanes. • Los ecosistemas. • Los seres vivos. • El software 6. Complejidad y Caos Bibliografía http://es.wikipedia.org/wiki/Sistema_complejo http://www.slideshare.net/schuschny/clase-1-y-2-introduccin-a-las- ciencias-de-la-complejidad/1 http://www.eumed.net/cursecon/libreria/2004/aca/aca.htm
  22. 22. 22 CASO DE ESTUDIO: Prueba de Inteligencia (CRUZAR EL RIO) Esta es una prueba que se aplica en algunos países asiáticos como el Japón y China para los aspirantes a algún trabajo. Las instrucciones se indican se indican a continuación: Reglas: Recuerda: “TODOS DEBEN CRUZAR EL RIO !!!!!” 1. Todo el mundo tiene que cruzar el rio utilizando para ello la balsa. 2. Solo 2 personas en la balsa pueden cruzar al mismo tiempo (capacidad de la balsa 2 personas). 3. El Padre no puede estar con ninguna de las hijas si la Madre no esta presente. 4. La Madre no puede estar con ninguno de los hijos si el Padre no esta presente. 5. El Ladrón no puede estar con ningún miembro de la familia sin la presencia del Policía 6. Solo el Padre, la Madre y el Policía saben como funciona la balsa. Nota: Cronométrese el tiempo empleado para desarrollar el caso de estudio INSTRUCCIONES MANEJO DE LA APLICACIÓN (actividad.pps)
  23. 23. 23 • Para empezar da clic en el circulo azul. • Para mover a las personas da clic sobre ellas. • Para mover la balsa da clic en la palanca.
  24. 24. 24 AUTOEVALUACIÓN Responda las siguientes interrogantes: 1. Tiene solución el caso de estudio presentado? SI NO En caso de SI. Enumere los pasos que se deben seguir: ……………………………………………………………………………………… ……………………………………………………………………………………… ……………………………………………………………………………………… ……………………………………………………………………………………… ……………………………………………………………………………………… 2. El nivel de complejidad de la aplicación es de un _________ %
  25. 25. 25 INCERTIDUMBRE 1. PROBABILIDAD El conocimiento sobre la manera en que opera el mundo está limitado por lo menos por cinco tipos de incertidumbre: 1. Conocimiento inadecuado de todos los factores que pueden influir en algo. 2. Número inadecuado de observaciones sobre esos factores. 3. Falta de precisión en las observaciones. 4. Carencia de modelos apropiados para combinar toda la información de modo significativo, y 5. Capacidad inadecuada para calcular a partir de los modelos. Es posible predecir algunos sucesos con mucha precisión (eclipses), otros con menos exactitud (elecciones) y otros con muy poca certeza (terremotos). Aunque la certidumbre absoluta es casi imposible de conseguir, con frecuencia se puede estimar la probabilidad sea grande o pequeña de que algunas cosas sucedan y el margen probable de error de la estimación. Con frecuencia resulta útil expresar la probabilidad en forma numérica. Por lo general se utiliza una escala de probabilidad de 0 a 1, donde el 0 indica la creencia de que algún suceso específico es seguro que no ocurrirá, el 1 indica la creencia de que es seguro que sucederá y el intervalo entre los dos indica certidumbre. Por ejemplo, una probabilidad de 0.9 indica que hay 9 oportunidades en 10 de que ocurra un suceso como se predijo; una probabilidad del 0.001 indica que hay solamente una oportunidad en 1 000 de que ocurra. También se pueden expresar las probabilidades como porcentajes, que van desde 0% (no hay certeza) hasta el 100% (certeza). Las incertidumbres también pueden expresarse como desigualdades: una probabilidad de 0.8 para un evento puede expresarse como las posibilidades de 8 a 2 (o 4 a 1) en favor de que ocurra. 1.1 Una manera para estimar la probabilidad de un evento es considerando los acaecimientos pasados. Si la situación actual es similar a las anteriores, entonces se pueden esperar resultados algo similares. Por ejemplo, si llovió el 10% de los días de verano del año pasado, se puede esperar que llueva aproximadamente el 10% de los días del siguiente verano. Así, una estimación razonable de la probabilidad de lluvia de cualquier día de verano es 0. 1 una oportunidad en 10. La información adicional puede cambiar la estimación de la probabilidad. Por ejemplo, pudo haber llovido el 40% de los días nublados del pasado verano; de modo que, si el día actual está nublado, se puede aumentar la estimación de 0.1 a 0.4 para la probabilidad de lluvia. Cuanto más se parezca la situación que interesa a aquélla de la que se tienen datos, mayor es la probabilidad de que la estimación resulte más acertada. 1.2 Otro enfoque para estimar las probabilidades es considerar los posibles y distintos resultados de un suceso específico. Por ejemplo, si hay 38 ranuras de amplitud igual en una ruleta rusa, se puede esperar que la bola caiga en cada ranura más o menos 1/38 veces. Las estimaciones de esa probabilidad teórica descansan en la suposición de que todos los resultados posibles son razonables y es igualmente probable que todos ocurran. Pero si ello no es cierto por ejemplo, si las ranuras no son de igual tamaño o si en ocasiones la bola se sale de la ruleta, la probabilidad calculada será errónea. 1.3 Las probabilidades son muy útiles para predecir proporciones de resultados en grandes cantidades de eventos. Una moneda lanzada al aire tiene una probabilidad de 50% de que caiga cara, aunque una persona no va conseguir precisamente 50% de caras en un número par de lances. Cuanto más se lance una
  26. 26. 26 moneda, será menos probable que uno consiga una cantidad precisa del 50%, pero la proporción más cercana de caras es probable que sea el teórico 50%. De igual manera, las compañías aseguradoras pueden, dentro de un rango de uno o dos puntos porcentuales, predecir la proporción de personas de 20 años que morirá en un año especifico, pero es probable que se equivoquen por miles de muertes totales y no tienen ninguna capacidad de predecir si alguien en particular que tenga 20 años morirá. En otras palabras, también es importante distinguir entre la proporción y la cifra real. Cuando hay una gran cantidad de sucesos similares, aun un resultado con una probabilidad muy pequeña de ocurrir puede suceder con mucha frecuencia. Por ejemplo, un examen médico con una probabilidad de 99% de ser correcto puede parecer muy preciso pero si ese examen se hubiera aplicado a un millón de personas, aproximadamente 10 000 individuos recibirían resultados falsos. 2. RESUMEN DE DATOS La información se encuentra alrededor de todos, a menudo en tan grandes cantidades que no es posible darle sentido. Un conjunto de datos se puede representar a través de un resumen de características que pueden revelar u ocultar aspectos importantes. La estadística es una rama de las matemáticas que desarrolla métodos útiles de organizar y analizar grandes cantidades de datos. Por ejemplo, para tener una idea de lo que es un conjunto de datos, se podría trazar cada caso en una recta numérica, y después inspeccionar la gráfica para ver dónde se acumulan los casos, dónde se separan unos de otros, dónde se encuentran los más altos y los más bajos, y así sucesivamente. De forma alternativa, el conjunto de datos se puede caracterizar de manera resumida describiendo dónde se halla su centro y cuánta variación hay alrededor de él. El estadístico más conocido para resumir una distribución de datos es la media, o promedio común, pero se debe ser cuidadoso al usarla o interpretarla. Cuando los datos son discretos (como el número de hijos por familia), la media no podría ser un valor posible (por ejemplo, 2.2 hijos). Cuando los datos se inclinan mucho hacia un extremo, la media tampoco puede estar cerca de un valor común. Por ejemplo, una proporción pequeña de personas que tienen ingresos personales muy altos puede aumentar la media mucho más de lo que la mayoría de las personas concentradas en el extremo más bajo sería capaz de disminuirla. La mediana, la cual divide la mitad inferior de los datos de la mitad superior, es más significativa para muchos propósitos. Cuando sólo hay unos cuantos valores discretos de una cantidad, el tipo de promedio más informativo puede ser la moda, la cual es el valor único más común por ejemplo, el número más común de automóviles por familia en los Estados Unidos de América es 1. 2.1 En general, los promedios por sí mismos no hacen caso de la variación en los datos y pueden implicar más uniformidad de la que existe Por ejemplo, la temperatura promedio en el planeta Mercurio de aproximadamente 150 F no suena tan mal hasta que uno considera que ésta oscila desde 3000 F hasta 3000 F bajo cero. El descuido de la variación puede ser particularmente engañoso cuando se comparan promedios. Por ejemplo, el hecho de que la estatura promedio de los hombres sea claramente mayor que la de las mujeres, se podría enunciar como "los hombres son más altos que las mujeres", en tanto que existen muchas mujeres que son más altas que muchos hombres. Por tanto, para interpretar promedios, es importante tener información sobre la variación dentro de los grupos, como la gama total de datos o la gama cubierta por el 50%. Una gráfica de todos los datos a lo largo de una recta numérica hace posible ver la forma en que se distribuyen los datos. 2.2 Con frecuencia se presentan datos resumidos que pretenden demostrar una relación entre dos variables, pero carecen de información esencial Por ejemplo, la afirmación de que "más del 50% de las parejas casadas que tienen diferentes religiones se divorcian" no diría nada acerca del vínculo entre la religión y el divorcio a menos que se conozca también el porcentaje de parejas que se divorcian teniendo la misma religión. Sólo la
  27. 27. 27 comparación de los dos porcentajes podría indicar si existe una relación real. Aun entonces, es necesaria la precaución por los posibles sesgos en la manera en que se seleccionaron las muestras y por las diferencias en porcentaje que puedan ocurrir sólo por el azar al seleccionar la muestra. Los informes apropiados de esa información deberán incluir una descripción de posibles fuentes de sesgos y una estimación de la incertidumbre estadística en la comparación. 3. MUESTREO DE DATOS La mayor parte de lo que se aprende sobre el mundo se obtiene de información basada en muestreos de lo que se está estudiando por ejemplo, muestras de formaciones rocosas, luz de las estrellas, televidentes, enfermos de cáncer, ballenas, números, etc.. Se hace uso de las muestras porque resultaría imposible, impráctico o demasiado costoso examinar el todo de algo, y porque una muestra, por lo general, es suficiente para la mayor parte de los propósitos. Al sacar conclusiones sobre un todo a partir de muestras, se deberán tomar en cuenta dos aspectos principales. o Primero, se debe estar alerta a posibles sesgos originados por la forma en que se selecciona la muestra. Las fuentes comunes de sesgos al seleccionar muestras incluyen la conveniencia (por ejemplo, entrevistar sólo a los amigos o recoger solamente rocas de la superficie), la autoselección (por ejemplo, estudiar únicamente a la gente que coopera voluntariamente o a quienes regresan los cuestionarios), el fracaso para incluir a aquellos que se han retirado a lo largo del camino (por ejemplo, examinar sólo a estudiantes que permanecen en la escuela o a pacientes que siguen el curso de una terapéutica) y la decisión de usar sólo los datos que apoyen las propias concepciones previas. o El segundo aspecto importante que determina la utilidad de una muestra es su tamaño. Si ésta se obtiene sin sesgos en el método, entonces, cuanto más grande es, mayor es la probabilidad de que represente al todo con exactitud. Esto es así porque, cuanto mayor es la muestra, es más probable que los efectos menores de las variaciones debidas al puro azar estén en sus características resumidas. La probabilidad de extraer una conclusión equívoca disminuye a medida que el tamaño de la muestra se incrementa. Por ejemplo, para las muestras escogidas al azar, encontrar que 600 de una muestra de 1 000 tienen una cierta característica, es una evidencia mucho más fuerte de que una mayoría de la población presenta esa característica que descubrir que 6 de una muestra de 10 (o incluso 9 de 10) la tienen. Por otro lado, el tamaño real de la población total de la cual se extrae una muestra tiene poco efecto en la exactitud de los resultados de ésta. Una muestra aleatoria de 1 000 podría tener aproximadamente el mismo margen de error si se selecciona en una población de 10 000 o en una similar de 100 millones. 4. CASO DE ESTUDIO: LA INCERTIDUMBRE EN LA METROLOGÍA “Mide todo lo que puedas medir; si hay algo que todavía no puede ser medido, encuentra como hacerlo”. Galileo Galilei, Astrónomo. “Sólo es posible conocer un fenómeno si podemos medirlo y reducirlo a números”. William Thompson, Físico. Definición de algunos conceptos Medición: Es el conjunto de acciones que tienen por objeto determinar el valor de una magnitud particular denominada mensurando. Procedimiento de medición: Es la secuencia específica de operaciones utilizada para medir determinada magnitud particular, siguiendo un principio establecido y de acuerdo a un método dado. Instrumento de medición: Aparato destinado a obtener medidas directas que permiten estimar los valores de diversas magnitudes particulares.
  28. 28. 28 Mensurando: Magnitud medida por un instrumento. Valor verdadero: Valor real del mensurando. Sistema de medición: Incluye instrumentos, patrones de calibración, conceptos y leyes físicas, operarios humanos, valores de propiedades y constantes, etc. Escala: Conjunto de símbolos o marcas ubicados en el instrumento, a menudo acompañados de una referencia numérica y normalmente a lo largo de una recta o arco de círculo. Índice: Puntero, aguja, lápiz, punta luminosa, superficie líquida, etc. cuya posición indica el valor de la magnitud. Longitud de escala: Es la distancia entre la primera y última marca indicada en unidades de longitud a lo largo del camino recorrido por el índice. Espaciamiento de escala: Es la distancia entre marcas adyacentes. Para que el índice sea legible tiene que ser mayor que 0.7mm. División de escala: Conjunto de valores limitados por dos trazos consecutivos. Intervalo de escala: Es la diferencia de valor representado por el desplazamiento del índice a través de un espaciamiento de escala. Escala lineal: Existe si el cociente entre el intervalo de escala y el espaciamiento de escala es constante a lo largo de toda la escala. Resolución: Es el cambio en el valor de la magnitud que produce el menor cambio apreciable en la indicación del aparato. Varía generalmente entre el 10 y el 20 % del espaciamiento de escala. Exactitud: Es una expresión cualitativa del grado de concordancia entre la magnitud medida y la magnitud real. Repetitividad: Es el reflejo de la dispersión de la de serie de valores que se obtienen al medir repetidas veces una misma magnitud. Precisión: Término que se asocia en ocasiones a la repetitividad, resolución o exactitud. Para evitar confusiones se evita su uso. Norma y proceso de normalización ISO Se define como norma al conjunto de especificaciones que caracteriza a un producto, proceso o procedimiento. Una norma es un patrón de referencia que representa una solución óptima para un problema que se repite. En general, las normas son documentos consensuales que tienen por objeto establecer los criterios mediante los cuales una determinada entidad, ya sea persona, producto, proceso, servicio o sistema, se adecua a una base de comparación definida oque es aceptable según ella. Algunos ejemplos de Normas son: ASTM, NCh de INN, ISO, etc. La Normalización ISO consiste en el proceso de formulación y aplicación de reglas que permitan abordar ordenadamente, con el concurso de todos los interesados, una actividad específica para el beneficio de éstos y, especialmente, para promover una economía óptima, para el interés general, teniendo debida consideración de las condiciones de funcionamiento y exigencias de seguridad. En la aplicación de las normas, especialmente en el Control de Calidad, se requiere de sistemas de unidades y de instrumentos de medición, que permitan verificar el grado de concordancia entre el producto real y el valor de referencia indicado por la norma o patrón
  29. 29. 29 de comparación. Este requerimiento lo satisface la Metrología que es la base científico- técnica de las NORMAS, Control de Calidad y la Certificación de Calidad. Proceso de Normalización Control de Calidad El control de calidad es un procedimiento integral de: Además existe una estrecha relación entre control de calidad, normalización y metrología de la siguiente forma: Algunas definiciones de Metrología 1.- Ciencia que tiene por objetivo el estudio de los sistemas de pesas y medidas. 2.- “metron” = medida “logos” = tratados. 3.- Ciencia de medir, que significa cuantificar la magnitud de cualquier fenómeno por comparación con otro de la misma naturaleza y reconocido como Patrón. 4.- Ciencia que se dedica al estudio de las mediciones. Todo fenómeno físico o químico que sea posible medir, entra en el campo de la “Metrología” (Está relacionado con todas las ciencias de la Ingeniería).
  30. 30. 30 Origen del metro 1791: La Academia de Ciencias de Francia define “metro” como la diez millonésima parte del cuadrante terrestre, dando origen al sistema métrico decimal. 1799: Se construye un patrón de longitud en una aleación de platino e iridio. 1840: El sistema métrico decimal es adoptado en toda Francia. 1875: Mediante la firma de delegados de 17 países se funda la “Oficina Internacional de pesas y Medidas de París”, la cual se encargó de fabricar réplicas del metro. 1908: Chile adhiere la “Convención Internacional del Metro”. 1960: Metro es “1.650.763,73 veces la longitud de onda en el vacío de la radiación naranja de Criptón 86”. 1983: Metro es “la longitud de la trayectoria recorrida por la luz en el vacío durante 1/299.792.648 segundos. Sistema de medida anglosajona Tanto Inglaterra como América formaron la convención del Metro y recibieron sus prototipos correspondientes. Sin embargo, como las convenciones no eran obligatorias, estos países han seguido con sus sistemas especiales de pesas y medidas. La unidad oficial Anglosajona es la yarda, que tiene aproximadamente 0,914 metros y es igual a 3 pies y a 36 pulgadas. 1761: Se construye el primer patrón de la yarda, el cual era una barra de latón con dos pastillas en oro marcadas con un pequeño agujero, entre las cuales se definió la yarda a temperatura de 62º F. 1834: Se destruye el patrón de la yarda a causa de un incendio. 1845: El actual patrón de la yarda es una barra de bronce cuyas dos extremidades están perforadas con dos agujeros remachados con oro. Sistema Internacional de Unidades SI El 20 de Mayo de 1875, 17 países suscribieron en París, la Convención del Metro, a raíz de la cual se adoptó el “Sistema Métrico de Unidades”. Unidades básicas Magnitudes básica Unidades básicas Símbolo Magnitud Unidad Símbolo L longitud metro m M masa kilogramo kg T tiempo segundo s Q temperatura termodinámica kelvin K I intensidad de corriente eléctrica ampere A J intensidad luminosa candela cd N cantidad de sustancia mol mol Unidades SI derivadas sin nombre propio Magnitud Nombre Símbolo área metro cuadrado m 2 volumen metro cúbico m 3 velocidad, rapidez metro/segundo m/s aceleración metro/segundo cuadrado m/s 2 número de ondas 1/metro m -1
  31. 31. 31 densidad kilogramo/metro cúbico kg/m 3 concentración (cantidad Mol/metro cúbico mol/m 3 de sustancia) actividad (radiactiva) 1/segundo s -1 volumen específico metro cúbico/kilogramo m /kg 3 densidad de corriente ampere/metro cuadrado A/m 2 eléctrica intensidad campo ampere/metro A/m magnético luminancia candela/metro cuadrado cd/m 2 Unidades derivadas con nombre especial Expresión en Nombre unidad términos de Magnitud Símbolo derivada SI unidades básicas -1 frecuencia hertz Hz 1 Hz = 1 s 2 fuerza newton N 1 N = 1 kg m/s 2 presión pascal Pa 1 Pa = 1 N/m energía trabajo joule J 1 J = 1 Nm potencia watt w 1 w = 1 J/s carga eléctrica coulomb C 1C=1As potencial volt V 1 V = 1 J/C eléctrico capacitancia farad F 1 F = 1 C/V eléctrica resistencia ohm Ω 1 Ω = 1 V/A eléctrica conductancia siemens S 1 S = 1 A/V eléctrica flujo magnético weber wb 1 wb = 1 V s inducción 2 tesla T 1 T = 1 wb/m magnética inductancia Henry H 1 H = 1 wb/A flujo luminoso lumen lm 1 lm = 1 cd sr 2 iluminación lux lx 1 lx = 1 lm/m Unidades fuera del SI mantenidas por su importancia práctica Nombre de la Símbolo Definición Magnitud unidad minuto min 1 min = 60 s tiempo hora h 1 h = 60 min día d 1 d = 24 h grado º 1 º = (1/180) rad ángulo plano minuto ’ 1 ’ = (1/60) º (ISO radian) segundo ’’ 1 ’’ = (1/60) ’ volumen litro l 1 l = 1 dm 3 masa tonelada t 1 t = 10 kg 3
  32. 32. 32 Múltiplos de unidades SI NOMBRE SIMBOLO POTENCIA yotta Y 10 24 zetta Z 10 21 exa E 10 18 peta P 10 15 tera T 10 12 giga G 10 9 mega M 10 6 kilo k 10 3 hecto h 10 2 deca da 10 1 deci d 10 -1 centi c 10 -2 mili m 10 -3 micro u 10 -6 nano n 10 -9 pico p 10 -12 femto f 10 -15 atto a 10 -18 Zepto Z 10 -21 yocto y 10 -24 Error e incertidumbre Al medir un mensurando se obtiene siempre sólo una aproximación a su valor verdadero. Solamente un instrumento ideal podría entregar como resultado de una medición el valor verdadero de la magnitud medida. Las causas del error pueden tener su origen en el propio instrumento o en situaciones ajenas a éste. Dentro de los instrumentos de medición: o Errores de ajuste, cuando el valor entregado difiere de una referencia conocida. o Problemas de juego (saltos bruscos al cambiar el sentido de medición), histéresis (diferencia entre valores obtenidos al medir en forma ascendente o descendente). o Otros errores comunes son la desviación de linealidad, deriva (lentitud hasta detenerse e indicar un valor) y falta de estabilidad. Errores no atribuibles al instrumento de medición son por lo común las desviaciones debidas a problemas ambientales e interferencias diversas en el ambiente de trabajo. Cabe destacar también que sumándose al error pueden existir equivocaciones conducentes a resultados falsos. Estas equivocaciones incluyen lecturas mal tomadas, errores de operación de los instrumentos y errores humanos en general, y no pueden ser consideradas asignándoles algún tipo de distribución de probabilidades, al calcular la incertidumbre. Diferencia entre Exactitud y Precisión: Valor Real (+)
  33. 33. 33 a) Serie exacta de mediciones repetidas cuyo promedio se aproxima al valor real. b) Las mediciones realizadas varias veces son precisas (están muy cercas entre sí), pero no se aproximan al valor real. c) Una serie de mediciones repetidas y que se encuentran concentradas apretadamente en torno del valor real. Error de Medición: Diferencia entre el resultado de la medición (X) y el valor verdadero (X ). V ε=X–X V Error Total: Suma entre el error sistemático (ε ) y el error aleatorio (ε ). S A ε =X –X ε =X–X S V A Incertidumbre (U): “Uncertainty” Parámetro que caracteriza el intervalo dentro del cual se cree, con gran seguridad que se encuentra el valor verdadero (X ). V Representación esquemática del intervalo de Incertidumbre: Si la Incertidumbre no se conoce, será imposible verificar si las características del mensurando están o no dentro de los márgenes de tolerancia contemplados en sus especificaciones y por ende, no se podrá válidamente tomar la decisión de aceptación o rechazo del producto. La incertidumbre asociada a los resultados obtenidos con el instrumento al medir un determinado mensurando, corregidos por posibles desviaciones detectadas mediante la calibración, se obtiene combinando tres componentes: 1) la incertidumbre asociada a las mediciones individuales, 2) la incertidumbre asociada a la corrección o ajuste y 3) la incertidumbre asociada al patrón de calibración Se olvida, por último, que ni el valor verdadero convencional del patrón ni su incertidumbre, que se obtienen de una calibración del patrón mismo, se mantienen constantes indefinidamente. (La distancia entre las caras de un bloque patrón puede verse alterada por: rayaduras, desgaste, suciedad, ligeras capas de oxidación superficial o, incluso, por lentas variaciones de la estructura cristalográfica del material que compone el bloque). En consecuencia, al igual que todo instrumento de medición, las medidas materializadas deben calibrarse periódicamente.
  34. 34. 34 La función de un patrón es proveer un valor verdadero convencional que permite determinar, por calibración, los valores verdaderos convencionales de otros patrones. Para cada magnitud se establece así una “cadena metrológica” cuyos enlaces son, precisamente, las correspondientes calibraciones. La cadena comienza en la definición de la unidad correspondiente. En el extremo opuesto, o nivel terminal, están aquellos instrumentos que no son utilizados para calibrar otros instrumentos. El acuerdo con la definición de la unidad y la expresión de su incertidumbre, establecen lo que en metrología se llama “trazabilidad”. Por lo tanto, la trazabilidad es la propiedad del valor de un patrón, o del resultado de una medición, por la cual ese valor o ese resultado puede relacionarse con referencias establecidas a través de una cadena ininterrumpida de comparaciones, todas ellas con incertidumbres conocidas. A la existencia de esta propiedad fundamental apuntan las normas relacionadas con la metrología. 5. BIBLIOGRAFÍA - STEEN, Lynn Arthur. La enseñanza agradable de las matemáticas. 4ta reimpresión. Editorial Limusa, México 2003. 241 pp - http://www.project2061.org/esp/publications/sfaa/online/chap9.htm - http://usuarios.iponet.es/ddt/incertidumbre.htm
  35. 35. 35 ESCALAS MULTIPLES 1. Introducción. La gama de magnitudes en el universo tamaños, duraciones, velocidades, etc. es inmensa. Muchos de los descubrimientos de la ciencia física son prácticamente incomprensibles debido a que entrañan fenómenos en escalas lejanas a la experiencia humana. Es posible medir, por ejemplo, la velocidad de la luz, la distancia a las estrellas más cercanas, el número de estrellas en la galaxia y la edad del Sol; pero estas magnitudes son tan inmensas que se comprenden de manera intuitiva. En otra dirección, es posible determinar el tamaño de los átomos, sus vastos números básicos y la velocidad de las interacciones que ocurren entre ellos; pero estos extremos también rebasan la capacidad de comprensión intuitiva. Las percepciones limitadas y las capacidades de procesamiento de información simplemente no pueden manejar la gama completa. Sin embargo, es factible representar tales cantidades en términos matemáticos abstractos (por ejemplo millones de millones) y buscar relaciones entre ellos que tengan algún sentido. Los grandes cambios en la escala se acompañan de manera típica por cambios en el tipo de fenómenos que ocurren. Por ejemplo, en una escala humana familiar, una pequeña bocanada de gas emitida por un satélite en órbita se disipa en el espacio; a escala astronómica, una nube de gas en el espacio con suficiente masa se condensa por las fuerzas gravitacionales mutuas en una esfera caliente que enciende la fusión nuclear y se convierte en una estrella. A escala humana, las sustancias y la energía son divisibles de manera interminable; a escala atómica, la materia no se puede dividir y permanece con su identidad, y la energía puede cambiar solamente mediante saltos discretos. La distancia alrededor de un árbol es mucho más grande para un insecto pequeño que para una ardilla, pues en la escala del tamaño del insecto habrá muchas colinas y valles que atravesar, en tanto que no será así para la ardilla Incluso en los reinos del espacio y el tiempo que son tan familiares, la escala desempeña un papel importante. Los edificios, los animales y las organizaciones sociales no pueden hacerse mucho más grandes o mucho más pequeños sin experimentar cambios fundamentales en su estructura o conducta. Por ejemplo, no es posible hacer un edificio de 40 pisos exactamente con el mismo diseño y materiales que se utilizan comúnmente para uno de cuatro pisos porque, entre otras cosas, se podría colapsar debido a su propio peso. A medida que aumentan de tamaño los objetos, su volumen se incrementa más rápido que su superficie. Por tanto, las propiedades que dependen del volumen, como la capacidad y el peso, cambian de proporción con las propiedades que dependen del área, como la fuerza de los soportes o la actividad de superficie. Por ejemplo, una sustancia se disuelve con mayor rapidez cuando está en forma de granulitos finos que cuando es un terrón en virtud de que es mayor la superficie en relación con el volumen. Un microorganismo puede intercambiar sustancias con su entorno directamente a través de su superficie, en tanto que un organismo de mayor tamaño requeriría de superficie especializada altamente ramificada (como en los pulmones, vasos sanguíneos y raíces). Las conexiones internas también presentan un fuerte efecto de escala. El número de posibles pares de cosas (por ejemplo, amistades o conexiones telefónicas) aumenta aproximadamente al cuadrado el número de cosas. Así, una comunidad diez veces más grande tendrá factible representar tales cantidades en términos matemáticos abstractos (por ejemplo millones de millones) y buscar relaciones entre ellos que tengan algún sentido. Los sistemas de complejidad suficiente pueden mostrar características que no son predecibles a partir de las interacciones de sus componentes, aun cuando tales interacciones se comprendan bien. En dichas circunstancias, pueden requerirse principios que no hagan referencia directa a los mecanismos subyacentes, pero que no sean incompatibles con ellos. Por ejemplo, en geología se puede hablar del proceso de erosión por los glaciares sin hacer referencia a los aspectos físicos subyacentes de las fuerzas eléctricas y de la estructura cristaliforme de los minerales en las rocas; es posible pensar en el corazón en términos del volumen de la sangre que bombea, independientemente de cómo se comporten sus células;
  36. 36. 36 es posible predecir la probable respuesta de alguien a un mensaje sin hacer referencia a la manera en que funcionan las células del cerebro; o bien, es posible analizar los efectos de los grupos de presión en política sin que se haga referencia necesariamente a nadie en particular. Tales fenómenos se pueden comprender en diversos niveles de complejidad, aun cuando la explicación completa de tales cosas se reduce con frecuencia a una escala alejada de la experiencia directa. El Método de las Escalas Múltiples El método de escalas múltiples (MEM) fue desarrollado en su versión moderna esencialmente a partir los años cincuentas y hasta los setentas del siglo XX. Este método está, sin embargo, basada en las ideas de Poincaré y utiliza frecuencias (en el caso de la rutina original de Poincaré) o amplitudes desconocidas para evitar la aparición de resonancias. La versión moderna de este método usa en lugar de las variables originales un conjunto de variables escaladas. En el caso de oscilaciones no lineales (estas representan una de las aplicaciones más importante del MEM) se escala el tiempo t y usan las variables T1 = t; T2 = εt; T3 = ε2 t , . . . donde ε es un pequeño parámetro de la aproximación (e. g. la proporción de dos escalas temporales muy diferentes entre sí). Se denomina a T1 la variable rápida y se llama a las otras variables T2 , T3 ,. . . coordenadas lentas. El cálculo de las derivadas temporales originales d=dt, d2 =dt 2 ,. . . conduce por esto a derivadas parciales respecto a T1, T2 ,. . . y la EDO original es convertida en una ecuación diferencial parcial (EDP). Un desarrollo de la solución en una serie asintótica resulta entonces en una jerarquía de problemas. En el orden inferior se obtiene usualmente una EDO lineal (con derivadas respecto a T1 ) que es trivial. La solución de esta ecuación contiene, como constantes de la integración, funciones A1(T2 , T3 ,. . . ), A 2 (T2 , T3 ,. . . ) ,. . . Estas funciones, llamadas amplitudes lentas son desconocidas en el orden menor. Las ecuaciones en los órdenes más altos contienen como inhomogeneidades términos de los aproximaciones procedentes de órdenes inferiores. Esto produce la posibilidad de resonancias. Como en muchos casos se quieren evitar las resonancias entonces se pueden determinar las amplitudes lentas con la aplicación de condiciones de no resonancia. Las últimas se convierten en EDPs gobernadas por las amplitudes. Esto significa que aparentemente se ha elevado el nivel de complejidad del problema original: una EDO nolineal fue convertida en un conjunto de EDPs. Sin embargo, las condiciones de no resonancia son suficientemente simples para obtener las correspondientes soluciones por cuadraturas simples (Bender, Orszag). Hay un buen número de otros métodos de aproximaciones. Aquí mencionamos tan sólo la rutina de promedios y el método de coordenadas deformadas. Además de estos métodos, son también importantes otros dos métodos locales que son válidos cerca de los puntos fijos de las ecuaciones (vea la próxima sección). El método de variedades centrales sirve para reducir la dimensión del sistema, mientras que la rutina de formas normales trata de simplificar los términos de la ED y, en el caso óptimo, logra la linearización de las ecuaciones. Sin embargo, la meta última se encuentra obstaculizada por la aparición de resonancias que impiden la linearización de las ecuaciones (Wiggins, 1990). Fuerntes: http://www.project2061.org/esp/publications/sfaa/online/chap11.htm Meter Plaschko, Sistemas dinámicos, métodos de las matemáticas nolineales y de la física clásica, Departamento de Física UAM-I, México D .F.
  37. 37. 37 La escala y su importancia en el análisis espacial D. García Departamento de Biología de Organismos y Sistemas (Ecología), Universidad de Oviedo, C/ Catedrático Rodrigo Uría s/n. E-33071, Oviedo. (danielgarcia@uniovi.es) 2. La escala espacial en Ecología El concepto de escala espacial en Ecología se define como la dimensión física de un objeto o proceso ecológico en el espacio (Turner et al., 2001). Hablamos de tasas de asimilación de CO en micromoles por metro cuadrado y segundo, de densidades de semillas en metros cuadrados, de dominios vitales de individuos en cientos de metros cuadrados, de coberturas paisajísticas en hectáreas y de cambios climáticos sobre kilómetros cuadrados. Todos somos conscientes de que distintos elementos ecológicos ocupan extensiones diferentes y que distintos procesos tienen distintos radios de acción. No obstante, el hecho de que tanto la forma de los patrones como el funcionamiento de los procesos ecológicos dependen de la escala ha atraído cada vez más el interés de los ecólogos en los últimos 25 años (Schneider, 2001). Esta mayor atención al “problema de la escala” obedece a que un mismo proceso ecológico puede generar patrones diferentes a distintas escalas espaciales, al estar regulado por mecanismos distintos en cada escala (Wiens, 1989; Levin, 1992). Por ejemplo, las diferencias en mineralización del mantillo en una extensión de unos cuantos metros cuadrados estarán básicamente determinadas por el tipo de dosel (caducifolio vs. perenne) que crece sobre dicha extensión, mientras que sobre una extensión de cientos de miles de kilómetros cuadrados dependerán probablemente de las variaciones climáticas regionales. La determinación de la escala-dependencia de patrones y mecanismos se convierte, por tanto, en una cuestión esencial a la hora de explicar la relación entre los organismos y el ambiente, extrapolar el conocimiento ecológico y establecer medidas de gestión de recursos naturales ante una actividad humana capaz de modificar desde los ecosistemas locales hasta el planeta entero. En este artículo revisaré el concepto de escala y su relación con el análisis espacial en Ecología. Tras definir escala en términos analíticos, evaluaré su importancia a la hora de i) determinar el peso del espacio en la variación de los patrones y procesos ecológicos, y ii) inferir mecanismos ecológicos a través de relaciones entre respuestas de los organismos y condiciones ambientales. Finalmente, presentaré el Análisis de Coordenadas Principales de Matrices de Vecinos como un método de análisis espacialmente explícito que permite desglosar la variación de parámetros ecológicos en distintas escalas y correlacionar posteriormente dicha variación a las distintas escalas con una potencia estadística similar. 3. La escala y el análisis espacial La ecología espacial trata de explicar los procesos ecológicos teniendo en cuenta la distribución espacial de sus elementos (Turner et al., 2001; Fortin y Dale, 2005). En cierto modo, intenta evaluar la respuesta de los organismos frente a condiciones y recursos ambientales que son heterogéneos en el espacio, condicionando en gran medida el funcionamiento de los organismos a dicha heterogeneidad espacial. Sin embargo, factores ambientales que resultan altamente heterogéneos a pequeña escala pueden aparecer como homogéneos a escalas superiores. Imaginemos, por ejemplo, cualquier sierra mediterránea compuesta por una serie de colinas de similar altitud: la humedad edáfica es muy diferente entre las dos laderas de una misma colina, solana y umbría, pero es probable que apenas encontremos diferencias cuando comparamos los valores promedio de humedad entre dos colinas sucesivas. Por tanto, el concepto de escala subyace a cualquier cometido en ecología espacial, por el simple hecho de que la mayor parte de la variabilidad ecológica es dependiente de la escala espacial. Para evaluar la importancia de la escala en el análisis espacial de datos ecológicos
  38. 38. 38 necesitamos descomponer el concepto de escala en tres dimensiones (Dungan et al., 2002): ecológica, de muestreo y analítica. La escala ecológica expresa, como expuse anteriormente, la dimensión real de los fenómenos ecológicos. Los ecólogos inferimos esta escala a través del muestreo y el análisis. La escala de muestreo hace referencia a la extensión del área de observación y a las características espaciales de las unidades de muestreo, por ejemplo, el área de un cuadrado de muestreo para contar plantas herbáceas en un prado, o la disposición de esos cuadrados en una retícula mayor. La escala analítica refleja las características espaciales de las unidades de muestreo en términos de análisis, por ejemplo, cómo se distribuye la varianza a lo largo de esas unidades de muestreo. Tanto la escala de muestreo como la analítica pueden definirse en términos de grano, la unidad mínima de resolución espacial que utilizamos en un estudio, extensión, la dimensión espacial máxima cubierta por el muestreo, y espaciamiento, la dimensión de la separación espacial entre unas unidades y otras. Nuestra capacidad de inferencia depende en gran medida de cómo las escalas de muestreo y análisis se ajustan a la escala real del fenómeno ecológico. En este sentido, nuestra extensión de muestreo deberá ser lo suficientemente amplia como para albergar la máxima variabilidad del fenómeno ecológico que estudiamos, ya que una extensión reducida en relación a la escala real del fenómeno nos mostrará sólo una pequeña parte de la variación (Fig. 1). Figura 1. Representación de los valores que toma un parámetro a lo largo de una extensión espacial. Una extensión de muestreo pequeña (bloque verde) recoge un escaso rango de variabilidad del parámetro, mientras que una extensión de muestreo amplia (bloque rojo) cubre todo el rango de valores de magnitud del parámetro, representando de forma fiable los agregados espaciales reales del parámetro a estudiar. Por otra parte, el tamaño de grano habrá de ser lo suficientemente reducido como para que las variaciones de un fenómeno a escala fina no pasen desapercibidas en un muestreo con unidades de mayor tamaño (Fig. 2). Sin embargo, la unidad de muestreo tiene que ser siempre mayor que el objeto ecológico unitario y suficientemente grande como para incorporar varios objetos, de forma que podamos evaluar las diferencias entre unidades en términos de varianza (Fig. 3).
  39. 39. 39 Figura 2. Representación de los valores que toma un parámetro a lo largo de una extensión espacial, mostrando agregados sucesivos de dicho parámetro. Un muestreo con unidades de tamaño de grano amplio (A) sería insensible a la variabilidad real del parámetro, y no mostraría diferencias en los valores promedio del parámetro entre unidades (rojas vs. blancas), mientras que un muestreo de grano fino (B) mostraría fuertes diferencias entre las distintas unidades de muestreo (verdes vs. blancas). Figura 3. Esquema de la fiabilidad de unidades de muestreo de distinto tamaño de grano (1<2<3) para representar la variación espacial en la abundancia de un objeto ecológico (rojo). La unidad ha de ser suficientemente amplia (3) como para representar la variación en la abundancia del objeto a lo largo de la extensión de muestreo.
  40. 40. 40 4. El reparto de variación entre escalas La principal preocupación analítica de los ecólogos en relación a la escala es el reparto de variación de los fenómenos ecológicos a lo largo de las escalas espaciales. Estudiar la variación espacial de un fenómeno es, en cierto modo, detectar si éste se distribuye de forma aleatoria, de forma regular (sobredispersión), o bien formado agregados, con patrones de contagio y repulsión (infradispersión). Para evaluar el radio de acción de los procesos ecológicos nos interesa, en primer lugar, determinar la agregabilidad (patchiness) de los objetos ecológicos a distintas escalas espaciales y, en segundo lugar, tratar de relacionar esa agregabilidad con gradientes ambientales, bióticos o abióticos, establecidos por el observador y que, desde la perspectiva de la ecología espacial, están muy condicionados por la extensión y distribución espacial de las observaciones. En este último sentido, a la hora de estructurar gradientes ambientales espaciales podemos considerar el espacio de forma explícita, estableciendo unidades de muestreo y análisis definidas exclusivamente por características espaciales como posición, extensión y distancia. Por ejemplo, imaginemos que evaluamos la respuesta a la salinidad edáfica a lo largo de un transecto lineal de 100 m, dividido en unidades de muestreo de 10 m, y que se aleja progresivamente de una laguna salina endorreica. Por otra parte, podemos considerar unidades espaciales “naturales” que representan niveles de heterogeneidad estructural biológica y que suponen una variación implícita en las características espaciales. Por ejemplo, cuando consideramos distintos microhábitats incluidos dentro de distintos hábitats, tanto microhábitat como hábitat suponen gradientes ambientales a distintas escalas espaciales y, por lo tanto, su significado analítico nos ofrecerá información acerca de procesos que ocurren a distintas escalas. Independientemente de cómo estructuremos los gradientes espaciales, nuestro interés será dilucidar cómo se reparte la variación de un determinado fenómeno a lo largo de distintas escalas (Fig. 4). Figura 4. Representación de tres escenarios de variación de un parámetro ecológico a lo largo de una extensión espacial. La variación puede acumularse exclusivamente a gran escala, y quedar bien representada por niveles de heterogeneidad estructural amplios como “hábitat” o unidades espaciales explícitas de muestreo de gran dimensión (A), acumularse a escala fina, siendo mejor representada por “microhábitats” o unidades espaciales explícitas más pequeñas (B) o repartirse proporcionalmente entre distintos niveles de heterogeneidad o unidades explícitas, con agregados a escala amplia que incluyen en su interior agregados a escala fina (C).
  41. 41. 41 La estadística espacial ofrece herramientas diversas para evaluar el grado de agregabilidad y el reparto de variabilidad de una variable ecológica a distintas escalas en marcos espacialmente explícitos (Fortin y Dale, 2005). En general, se trata de métodos que descomponen la variabilidad de un parámetro, definiendo las escalas de análisis en función de distancias entre puntos que abarcan distintas dimensiones, como ocurre en los correlogramas de I de Moran y los variogramas (Legendre y Legendre, 1998), o bien en función de distintos radios de acción donde establecer distancias a vecinos más próximos, como en el índice K de Ripley (Fortin y Dale, 2005). En cierto modo, indican la estructura espacial de una variable en función de una determinada escala. Por ejemplo, un correlograma nos indica el grado de agregabilidad en función de las distancias a las cuales se detecta autocorrelación espacial positiva (contagio) o negativa (repulsión), definiendo el tamaño y la escala de influencia de los “rodales” en los que se estructura nuestra variable de interés (Fig. 5). Figura 5. A) Representación de la proporción de semillas de acebo Ilex aquifolium depredadas por roedores (Apodemus spp.) a lo largo de un transecto del 2.500 m a través de una zona de bosques secundarios y pastos de montaña en la Sierra de Peña Mayor-Trigueiro (cordillera Cantábrica, Asturias, N España; foto sup. izda.). El transecto se subdividió en 100 unidades contiguas de 25 m. En enero de 2005, en cada unidad se distribuyeron homogéneamente soportes de malla plástica con semillas pegadas (foto sup. dcha.). Estos soportes fueron revisados a los 20 días, contándose el número de semillas depredadas y estimándose el promedio de tasa de depredación por unidad de transecto. B) Correlograma de I de Moran representando la estructura espacial de la tasa de depredación de semillas

×