SlideShare una empresa de Scribd logo
1 de 23
Descargar para leer sin conexión
LENGUAJES DE OPTIMIZACION
PARA LA TOMA DE
DECISIONES
Lagrange y
Teoria de la Informacion
2017
Erick CALDERIN
Autor: Erick CALDERIN 1
LAGRANGE Y TEORIA DE LA
INFORMACION
CALDERIN MORALES ERICK DAVID
LENGUAJES DE OPTIMIZACION PARA LA TOMA DE DECISIONES
PRESENTADO A:
Dr. FRANCISCO IBAÑEZ.
UNIVERSIDAD NACIONAL DE SAN JUAN
DEPARTAMENTO DE POSGRADO, FCEFN
SAN JUAN, ARGENTINA
Autor: Erick CALDERIN 2
CONTENIDO
INTRODUCCION........................................................................................................................ 4
1. OBJETIVOS ........................................................................................................................ 5
1.1. OBJETIVO GENERAL............................................................................................... 5
1.2. OBJETIVOS ESPECIFICOS .................................................................................... 5
2. ANTECEDENTES .............................................................................................................. 6
3. TEORIA DE LA INFORMACION...................................................................................... 8
3.1. ENTROPIA DE LA INFORMACION ........................................................................ 9
4. SOLUCION AL PROBLEMA........................................................................................... 10
4.1. SOLUCION MATEMATICA..................................................................................... 10
4.2. SOLUCION CON MATLAB..................................................................................... 13
4.3. ANALISIS DE RESULTADOS................................................................................ 20
CONCLUSION.......................................................................................................................... 21
BIBLIOGRAFIA......................................................................................................................... 22
Autor: Erick CALDERIN 3
TABLA DE FIGURAS
Figura 1. Esquema del modelo comunicativo de la Teoría de Shannon........................... 8
Figura 2. Grafica de función maximizadora en el espacio................................................. 15
Figura 3. Curvas de nivel y ecuación de restricción ........................................................... 16
Figura 4. Cuando P1=0 y P2=1.............................................................................................. 17
Figura 5. Cuando P1=1 y P2=0.............................................................................................. 17
Figura 6. Señalización de coordenadas a partir de la salida original............................... 18
Figura 7. Ejemplo 2 en la grafica ........................................................................................... 19
Autor: Erick CALDERIN 4
INTRODUCCION
La teoría de la información también conocida como teoría matemática de la
comunicación, una teoría propuesta por Claude E. Shannon y Warren
Weaver con el fin de cuantificar la información.
En realidad, fue Hartley el primero que propuso la idea de cuantificar la
información, pero Shannon en su artículo “A Mathematical Theory of
Communication” marco la teoría de forma oficial, y desde entonces la teoría de
la información quedo asignada como rama de la matemática y con alcances en
el mundo de la informática. Este mismo concepto se posteriorizo de una forma
más refinada en la publicación de artículos de otros autores como Brockway
McMillan en “The Basic Theorems of Information Theory”. (Jaimes, 2008)
Se puede examinar, además, desde distintos enfoques y en este trabajo
cubriremos el contexto de uso de multiplicadores de Lagrange en la resolución
de un caso de aplicación del tema, apoyado en un sistema de programación y
lenguaje llamado MATLAB; además se aplicarán conceptos de cálculo
multivariable para la resolución del mismo ejemplo que soporte la solución
arrojada por el software, también servirá como herramienta para un análisis
profundo pues ya se tendrían identificado algunos datos que ayuden a obtener
conclusiones importantes a partir del enfoque matemático y computacional.
Autor: Erick CALDERIN 5
1. OBJETIVOS
1.1. OBJETIVO GENERAL
Analizar los alcances de la Teoría de la Información con un caso asignación de
probabilidades no óptimas y óptimas.
1.2. OBJETIVOS ESPECIFICOS
▪ Realizar una exploración en los antecedentes de la Teoría de la Información
cubriendo aquellos casos de éxitos útiles para el desarrollo de este informe.
▪ Formular planteamiento matemático del tema principal aplicando Lagrange.
▪ Programar en Matlab un ejemplo de Teoría de la Información.
▪ Analizar resultados del software con los obtenidos de la formulación
matemática.
Autor: Erick CALDERIN 6
2. ANTECEDENTES
De los antecedentes explorados a continuación no se encontró alguno registrado
a nivel nacional y en ningún país de américa latina.
Se exponen algunos casos de estudio de la teoría de la información.
APLICACIONES DE LA TERIA DE LA INFORMACION EN ANALISIS DE
SECUENCIA BIOLOGICA
Este proyecto hizo énfasis en la bilogía molecular descubriendo que tiene
muchas aplicaciones en la teoría de la información. Se investigo la relación entre
la TI y la biología, y como la entropía puede llegar a explicar la secuencia de
análisis de ADN, acerca de esto, Shannon había planteado los primeros
acercamientos y más adelante otros investigadores habían propuestos teorías
sólidas y convincentes funcionando como base para la elaboración de estudios
como el que se detalla en esta sección.
Aunque no exhaustiva, esta revisión intenta categorizar los métodos existentes
e indicar su relación con temas transversales más amplios, tales como firmas
genómicas, compresión y complejidad de datos, análisis de series de tiempo y
clasificación filogenética, proporcionando un recurso para desarrollos futuros en
esta área. (Vinga, 2014)
APLICACIONES EN TECNOLOGIA DE PROGAPACION DEL ESPECTRO
Relata uno de los desarrollos por parte de los militares durante la Segunda
Guerra Mundial en donde las señales de radio fue clave en el lanzamiento de
misiles guiados y era necesario que esas señales estuvieran protegidas ante la
detección del enemigo.
El concepto de propagación del espectro como se conoce actualmente, proviene
de la idea de Shannon acerca de la entropía. El aporte de Shannon señala que
para una buena comunicación se necesita un portador de entropía baja, como el
ruido, para transmitir un mensaje de alta entropía. La tecnología de propagación
del espectro difunde una señal de radio sobre un ancho de banda que lo hace
resistente a la interferencia.
Autor: Erick CALDERIN 7
Hoy en día, la propagación del espectro se ve aplicada en tecnologías CDMA
1en teléfonos celulares. (Aftab, O., Cheung, P., Kim, A., Thakkar, S., and
Yeddanapudi, 2001)
1
CDMA: En los EE.UU., las operadoras CDMA utilizan una red basada en listas blancas para
verificar sus abonados. Eso significa que sólo se puede cambiar de teléfono con el permiso
de la compañía, y una operadora no tiene por qué aceptar cualquier teléfono en su red.
Autor: Erick CALDERIN 8
3. TEORIA DE LA INFORMACION
El modelo propuesto por Shannon consiste en un sistema general de
comunicación que constan de una fuente de información que emite una señal a
través de un transmisor, viajando por un canal provocando alteraciones en la
señal, hasta que finalmente sale del canal llegando a un receptor que decodifica
la señal y la envía a un destinatario. Ver Figura 1
Figura 1. Esquema del modelo comunicativo de la Teoría de Shannon
A partir de lo anterior, se pretende buscar la mejor forma de codificar el mensaje
sin que sea susceptible a distorsiones o modificaciones que puedan llegar a
alterar su contenido.
Un ejemplo de codificación es la conversión de voz e imagen en impulsos
eléctricos o electromagnéticos como un método para encriptar los mensajes
asegurando su privacidad. En la teoría de la información, la cantidad de
información es medible por el hecho de corresponder a un valor matemático.
El término cantidad no se refiere a la cuantía de datos, sino a la probabilidad de
que un mensaje, dentro de un conjunto de mensajes posibles, sea recibido. En
lo que se refiere a la cantidad de información, el valor más alto se le asigna al
mensaje que menos probabilidades tiene de ser recibido. Si se sabe con certeza
FUENTE DE
INFORMACION
Mensaje
TRANSMISOR RECEPTOR
Mensaje
DESTINATARIO
Señal
FUENTE
DE RUIDO
Señal
recibida
Autor: Erick CALDERIN 9
que un mensaje va a ser recibido, su cantidad de información es cero. (Shannon,
1948)
La cantidad de información crece cuando todas las alternativas son igual de
probables o cuanto mayor sea el número de alternativas. La ocurrencia de
mensajes de alta probabilidad de aparición aporta menos información que la
ocurrencia de mensajes menos probables.
3.1. ENTROPIA DE LA INFORMACION
Según Shannon, la información emitida por una fuente se puede medir con su
entropía.
“En el ámbito de la teoría de la información la entropía, también llamada entropía
de la información y entropía de Shannon (en honor a Claude E. Shannon), mide
la incertidumbre de una fuente de información.” (Wikpedia, 2017)
Para entender la utilidad de estos conceptos, imaginamos una fuente de
información que emite símbolos al azar y se plantea la incógnita sobre cuál será
la próxima salida de la fuente. Se sabe con certeza las probabilidades de
ocurrencia de cada símbolo. Entonces se concluye con los siguientes
interrogantes: ¿Cuan impreciso será el próximo símbolo que la fuente emitirá?
La incertidumbre del próximo símbolo está ligada al concepto de entropía.
(Shannon, 1948)
Luego de varios procedimientos matemáticos, Shannon concluye que:
𝐻 = − ∑ 𝑃𝑖
𝑛
1
log2 𝑃𝑖
Donde H es la entropía de la información.
𝑛 es la cantidad de sucesos posibles.
𝑃𝑖 corresponde al valor de la probabilidad de cada suceso.
Se utiliza Logaritmo en base 2 para que la solución del caso más simple sea 1.
Recordemos que al haber dos probabilidades se constituye este tipo de casos.
A partir de sus estudios, Shannon comprobó que la entropía es el valor máximo
al que se puede codificar la información sin ser distorsionada o alterada.
(Franquet Bernis, 2008)
Autor: Erick CALDERIN 10
4. SOLUCION AL PROBLEMA
4.1. SOLUCION MATEMATICA
Se utilizarán los multiplicadores de Lagrange (Un concepto de cálculo vectorial)
para maximizar la función sujeta a una restricción, forzando la positividad de las
variables.
Función maximizadora: Es una función continua y diferenciable.
𝑷𝟏 ∗ 𝐥𝐨𝐠 𝟐
𝟏
𝑷𝟏
+ 𝑷𝟐 ∗ 𝐥𝐨𝐠 𝟐
𝟏
𝑷𝟐
−𝑷𝟏 ∗ 𝐥𝐨𝐠 𝟐(𝑷𝟏) − 𝑷𝟐 ∗ 𝐥𝐨𝐠 𝟐(𝑷𝟐)
Sujeto a:
∑ 𝑷𝒊 = 𝟏
𝒏
𝒊=𝟏
𝑷𝟏 + 𝑷𝟐 = 𝟏
Función aplicando estructura de Lagrange:
𝑳(𝑷, 𝝀) = − ∑ 𝑷𝒊 𝐥𝐨𝐠 𝟐 𝑷𝒊 + 𝝀 (∑ 𝑷𝒊 − 𝟏
𝒏
𝒊=𝟏
)
𝒏
𝒊=𝟏
𝑳(𝑷𝟏, 𝑷𝟐) = −𝑷𝟏 𝐥𝐨𝐠 𝟐 𝑷𝟏 − 𝑷𝟐 𝐥𝐨𝐠 𝟐 𝑷𝟐 + 𝝀(𝑷𝟏 + 𝑷𝟐 − 𝟏)
Formula general para derivadas parciales:
𝝏𝑳
𝝏𝑷𝒊
= − 𝐥𝐨𝐠 𝟐 𝒆 − 𝐥𝐨𝐠 𝟐 𝑷𝒊 + 𝝀
Derivada parcial con respecto a P1:
𝝏𝑳
𝝏𝑷𝟏
= − 𝑷𝟏 (
𝟏
𝑷𝟏
𝐥𝐨𝐠 𝟐 𝒆) − 𝐥𝐨𝐠 𝟐 𝑷𝟏 + 𝝀
Autor: Erick CALDERIN 11
𝝏𝑳
𝝏𝑷𝟏
= − 𝐥𝐨𝐠 𝟐 𝒆 − 𝐥𝐨𝐠 𝟐 𝑷𝟏 + 𝝀 (𝟏)
Derivada parcial con respecto a P2:
𝝏𝑳
𝝏𝑷𝟐
= − 𝑷𝟐 (
𝟏
𝑷𝟐
𝐥𝐨𝐠 𝟐 𝒆) − 𝐥𝐨𝐠 𝟐 𝑷𝟐 + 𝝀
𝝏𝑳
𝝏𝑷𝟐
= − 𝐥𝐨𝐠 𝟐 𝒆 − 𝐥𝐨𝐠 𝟐 𝑷𝟐 + 𝝀 (𝟐)
Derivada parcial con respecto a 𝝀:
𝝏𝑳
𝝏𝝀
= ∑ 𝑷𝒊
𝒏
𝒊=𝟏
− 𝟏
𝝏𝑳
𝝏𝝀
= 𝑷𝟏 + 𝑷𝟐 − 𝟏 (𝟑)
Se obtuvo un sistema de ecuaciones de grado 3 con incógnitas P1, P2 y 𝝀
Se igualan las ecuaciones (1) y (2).
− 𝐥𝐨𝐠 𝟐 𝒆 − 𝐥𝐨𝐠 𝟐 𝑷𝟏 + 𝝀 = 𝟎
− 𝐥𝐨𝐠 𝟐 𝒆 − 𝐥𝐨𝐠 𝟐 𝑷𝟐 + 𝝀 = 𝟎
Se multiplica por -1 en cualquiera de las ecuaciones para eliminar la
variable 𝝀 del sistema:
𝐥𝐨𝐠 𝟐 𝒆 + 𝐥𝐨𝐠 𝟐 𝑷𝟏 − 𝝀 = 𝟎
− 𝐥𝐨𝐠 𝟐 𝒆 − 𝐥𝐨𝐠 𝟐 𝑷𝟐 + 𝝀 = 𝟎
𝐥𝐨𝐠 𝟐 𝑷𝟏 − 𝐥𝐨𝐠 𝟐 𝑷𝟐 = 𝟎
𝐥𝐨𝐠 𝟐 𝑷𝟏 − 𝐥𝐨𝐠 𝟐 𝑷𝟐 = 𝟎
𝐥𝐨𝐠 𝟐 𝑷𝟏 = 𝐥𝐨𝐠 𝟐 𝑷𝟐
Autor: Erick CALDERIN 12
𝑷𝟏 = 𝑷𝟐
Reemplazando en la ecuación (3)
Si 𝑷𝟏 = 𝑷𝟐, entonces:
𝑷𝟏 + 𝑷𝟏 − 𝟏 = 𝟎
𝟐𝑷𝟏 = 𝟏
Se alcanza el máximo con un valor de 0.5 para las P1 y P2.
Si se reemplaza estos valores en la función maximizadora, se obtiene:
Como P1=P2, entonces:
𝑯 = −𝑷𝟏 ∗ 𝐥𝐨𝐠 𝟐(𝑷𝟏) − 𝑷𝟐 ∗ 𝐥𝐨𝐠 𝟐(𝑷𝟐)
𝑯 = −𝑷𝟏 ∗ 𝐥𝐨𝐠 𝟐(𝑷𝟏) − 𝑷𝟏 ∗ 𝐥𝐨𝐠 𝟐(𝑷𝟏)
𝑯 = −𝟐 ∗ 𝑷𝟏 ∗ 𝐥𝐨𝐠 𝟐(𝑷𝟏)
𝑯 = −𝟐 ∗
𝟏
𝟐
∗ 𝐥𝐨𝐠 𝟐 (
𝟏
𝟐
)
𝑯 = − 𝐥𝐨𝐠 𝟐 (
𝟏
𝟐
)
El valor máximo corresponde a 1.
𝑷𝟏 = 𝑷𝟐 = 𝟏/𝟐
𝑯 = 𝟏
Autor: Erick CALDERIN 13
4.2. SOLUCION CON MATLAB
El primero paso es crear un script con el nombre Principal que tendrá el código
a continuación:
function funcionPrincipal = Principal()
%Llamado a la función MeshGrid para asignar un arreglo de valores a P1
y P2
%de 0 a 1 con un salto de 0.02
[P1,P2]=meshgrid(0:0.02:1);
%Se invoca la función maximizadora con el mismo nombre del script.
%Los parámetros corresponden a las variables P1 y P2 creadas en la
línea
%anterior.
z=FuncionMaximizadora(P1,P2);
%Creacion del componente sobre el cual se llevará a cabo el trazado de
la
%grafica,
figure(1); clf;
%Variable cont con valor de 50 utilizado en las curvas de nivel
cont = 50;
%Se dibujan las curvas de nivel con la función contour.
%Los parámetros son P1, para indicar un rango de valores en el eje X,
P2
%para el eje Y.
%Tratandose de curvas de nivel, se suministra una función de dos
variables,
%en este caso la función maximizadora ocupa el tercer parámetro.
%El ultimo parámetros es la cantidad de curvas de nivel.
C = contour(P1,P2,z, cont); hold on;
%Sin la instrucción Hold on, las curvas no se conservarán cuando se
grafique la función de restricción.
%El método clabel etiqueta las curvas de nivel con un valor
clabel(C);
%La función de restricción es una línea recta compuesta por un
conjunto
%finito de puntos entre 0 y 1, con una distancia de separación muy
mínima
%con un valor de 0.001. Por esto, se crea la variable x1 y se le
almacenan
%el conjunto de datos.
x1=0:0.001:1;
%Se invoca la función de restricción con el mismo nombre del script.
%El parámetro será el arreglo de números creados en la línea anterior.
z2=FuncionRestriccion(x1);
Autor: Erick CALDERIN 14
%La función plot finalmente crea una línea 2D de los datos en el eje Y
de
%los valores correspondientes en X.
%Sus parámetros para este caso son vector x1, la función de una
variable y
%un caracter para el trazado de la línea, lo mas usual es utilizar el
%'punto' para dejar en claro el concepto de una línea recta.
plot(x1,z2,'.');
%Creacion de una nueva figura para la ecuacion maximizadora en 3D,
figure(2); clf;
%Uso de la funcion mesh para crear una superior con los parametros X,
Y y
%Z. P1, P2 son valores conocidos, z corresponde a la funcion.
mesh(P1,P2,z); hold on;
%Opcional, se dibujan nuevas curvas de nivel.
C = contour(P1,P2,z, cont); hold on;
%Se habilita la opcion de girar la grafica con el puntero del mouse.
rotate3d on;
%Cierre de la función con la palabra reservada 'end'.
end
Se crea un nuevo script con el nombre FuncionMaximizadora que tendrá el
código a continuación:
%Declaración de la función con alias 'result' seguido del nombre del
%script.
function result = FuncionMaximizadora(P1,P2)
%Función maximizadora siguiendo la definición expuesta en la teoría.
%Se indica la salida asignando a la variable 'result' el valor la
función.
result=-P1.*log2(P1)-P2.*log2(P2);
%Cierre de la función con la palabra reservada 'end'.
end
Se crea un último script con el nombre FuncionRestriccion con las siguientes
líneas de codigo:
%Declaración de la función con alias 'result' seguido del nombre del
%script.
function result= FuncionRestriccion(P1)
%P2=1-P1
%Función de restricción de una sola variable siguiendo la definición
%expuesta en la teoría.
%Se indica la salida asignando a la variable 'result' el valor la
función.
Autor: Erick CALDERIN 15
result=1-P1;
%Cierre de la función con la palabra reservada 'end'.
end
Finalmente, ejecutar el script Principal para observar la salida del programa.
Figura 2. Grafica de función maximizadora en el espacio.
La Figura 2, es necesaria para tener un contexto de la ecuación en su forma
tridimensional y como refleja las curvas de nivel, pero no se utilizará en ningún
análisis.
De aquí en adelante, se debe hacer énfasis en la Figura 3, el cual consiste en un
plano con las curvas de nivel y la ecuación de restricción.
Autor: Erick CALDERIN 16
Figura 3. Curvas de nivel y ecuación de restricción
Se puede notar a simple vista las curvas de nivel de la función multivariable y la
recta de color azul de la restricción definida por la ecuación P2=P1-1.
Recordemos que el conjunto de probabilidades P1 y P2 representan los ejes
horizontal y vertical respectivamente.
Cuando P1 es igual a cero y P2 igual a 1, o P2 igual a cero y P1 igual a 1, o bien
P1 y P2 son iguales a cero, entonces la cantidad de información que aportaría
tendera a cero.
Se ha ampliado la gráfica original para observar estos detalles. Ver Figura 4 y
Figura 5.
Autor: Erick CALDERIN 17
Figura 4. Cuando P1=0 y P2=1
Figura 5. Cuando P1=1 y P2=0
En los ejemplos anteriores, el valor de la entropía decrementa a medida que P1
o P2 disminuye hasta llegar al mínimo equivalente a cero.
Sin embargo, el valor máximo de la entropía se da cuando los símbolos de la
fuente son equiprobables, es decir, aquellas ocurrencias que tienen igual
probabilidad de aparecer.
Autor: Erick CALDERIN 18
La Figura 6, señala las coordenadas P1 y P2 con un valor de 0.5 en un punto de
intersección que coincide de tal forma que la curva de restricción es tangente a
la curva de nivel en su valor máximo (0.999, aproxidamente 1).
En ningún otro punto se puede asegurar un valor de la entropía superior a 1.
Figura 6. Señalización de coordenadas a partir de la salida original
Ejemplo 1: Si P1 =0.44 y P2 =0.3, entonces:
𝑯 = −𝑷𝟏 ∗ 𝐥𝐨𝐠 𝟐(𝑷𝟏) − 𝑷𝟐 ∗ 𝐥𝐨𝐠 𝟐(𝑷𝟐)
𝑯 = −𝟎. 𝟒𝟒 ∗ 𝐥𝐨𝐠 𝟐(𝟎. 𝟒𝟒) − 𝟎. 𝟑 ∗ 𝐥𝐨𝐠 𝟐(𝟎. 𝟑)
𝑯 = 𝟏. 𝟎𝟒
Se obtuvo un valor superior a 1, pero no se cumple la restricción:
𝟎. 𝟑 + 𝟎. 𝟒𝟒 ≠ 𝟏
Ejemplo 2: Si P1 =0.6 y P2 =0.4, entonces:
𝑯 = −𝑷𝟏 ∗ 𝐥𝐨𝐠 𝟐(𝑷𝟏) − 𝑷𝟐 ∗ 𝐥𝐨𝐠 𝟐(𝑷𝟐)
𝑯 = −𝟎. 𝟔 ∗ 𝐥𝐨𝐠 𝟐(𝟎. 𝟔) − 𝟎. 𝟒 ∗ 𝐥𝐨𝐠 𝟐(𝟎. 𝟒)
Autor: Erick CALDERIN 19
𝑯 = 𝟎. 𝟗𝟕
Se cumple la restricción:
𝟎. 𝟔 + 𝟎. 𝟒 = 𝟏
Pero el valor de la entropía (H) es inferior al máximo encontrado. Ver Figura 7:
Figura 7. Ejemplo 2 en la grafica
Autor: Erick CALDERIN 20
4.3. ANALISIS DE RESULTADOS
El grafico obtenido con el software MATLAB fue una solución captable a simple
vista, lanzando criterios a partir de un gráfico con muchas cualidades técnicas,
lo cual deja de ser un medio fiable para convertirse en un soporte del
planteamiento matemático elaborado en la sección anterior. De otro modo,
también se puede apreciar la variación de las probabilidades y un aproximado
para el valor de la entropía, lo que se destaca como una ventaja sobre el proceso
Lagrangiano, porque estaríamos evitando el reemplazo de variables en la
funcion objetivo y la ejecución de cálculos para obtener el resultado.
Los multiplicadores de Lagrange consisten en un conjunto técnicas y pasos
matemáticos ideales para problemas de este tipo, tiene un gran factor de
participación en algunas ramas de economía brindando no solamente una
solución esperada sino ciertas estimaciones para la toma de decisiones.
Existen alternativas en MATLAB relacionadas a la teoría de la información, se
trata del uso de la funcion wentropy para calcular la entropía de una señal.
entropia=wentropy(mensaje,'shannon',0);
1) mensaje puede ser un vector o matriz.
2) El segundo parámetro es el método a utilizar, se indica entre comillas
simples: ‘shannon’.
3) El ultimo parámetro puede tener cualquier valor, pues no afecta el
resultado.
Esta función suele tener mayor aplicabilidad en el procesamiento de imágenes,
junto con otros procedimientos se obtiene la máxima entropía de una imagen a
partir de la posibilidad de ocurrencia de cada pixel.
Autor: Erick CALDERIN 21
CONCLUSION
Este estudio no se llevó a cabo en breves instantes, pero se pudo acceder a ello
gracias a las bondades de la matemática, como una ciencia exacta se obtuvieron
resultados tan aproximados a la solución real con el más mínimo margen de
error.
Por otro lado, no estaba previsto descubrir aplicaciones de la teoría de la
información en casos reales, tampoco se trataba de pequeñas investigaciones
sino de la solución de problemas actuales en diversas ramas de la ciencia: La
biología, informática y la matemática misma, entre otros, por lo que se puede
llegar a pensar que el potencial de la teoría de Shannon aún no se ha explotado
por completo.
Autor: Erick CALDERIN 22
BIBLIOGRAFIA
Aftab, O., Cheung, P., Kim, A., Thakkar, S., and Yeddanapudi, N. (2001).
Information Theory and the Digital Age. Project History, Massachusetts
Institute of Technology, 27. Retrieved from
http://web.mit.edu/6.933/www/Fall2001/Shannon2.pdf
Franquet Bernis, J. M. (2008). El Estudio operativo de la psicologia: una
aproximación matemática. (UNED-Tortosa. C/Cervantes, Ed.) (Primera
ed). Tortosa, España.
Jaimes, Y. (2008). Fundamentos Matemáticos de la Teoría de la Información.
UNIVERSIDAD SIMON BOLIVAR.
Paul, E., & Petry, F. (2017). Information Theory in Soft Computing. Springer,
Cham, 344(January). https://doi.org/4
Shannon, C. E. (1948). A mathematical theory of communication. The Bell
System Technical Journal, 27(July 1928), 379–423.
https://doi.org/10.1145/584091.584093
Vinga, S. (2014). Information theory applications for biological sequence
analysis. Briefings in Bioinformatics, 15(3), 376–389.
https://doi.org/10.1093/bib/bbt068
Wikpedia, L. enciclopedia libre. (2017). Entropia (Informacion). Retrieved July
12, 2017, from https://es.wikipedia.org/wiki/Entropía_(información)

Más contenido relacionado

La actualidad más candente

Practicando análisis cibermétrico en redes de investigadores
Practicando análisis cibermétrico en redes de investigadoresPracticando análisis cibermétrico en redes de investigadores
Practicando análisis cibermétrico en redes de investigadoresElwin Huaman
 
La comunicación humana y la teoría matemática de la comunicación
La comunicación humana y la teoría matemática de la comunicaciónLa comunicación humana y la teoría matemática de la comunicación
La comunicación humana y la teoría matemática de la comunicaciónLaura Elizabeth Contreras
 
Teoría matemática de la información
Teoría matemática de la informaciónTeoría matemática de la información
Teoría matemática de la informaciónRomina Fernandez
 
Modelo de comunicación de claude shannon
Modelo de comunicación de claude shannonModelo de comunicación de claude shannon
Modelo de comunicación de claude shannonluis ortiz
 
Teoría matemática de la comunicación
Teoría matemática de la comunicaciónTeoría matemática de la comunicación
Teoría matemática de la comunicaciónjennifer hernandez
 
Visualizing Data: The 7 stages of data visualization
Visualizing Data: The 7 stages of data visualizationVisualizing Data: The 7 stages of data visualization
Visualizing Data: The 7 stages of data visualizationcreyesnav
 
Modelo de comunicación de shannon y weaver
Modelo de comunicación de shannon y weaverModelo de comunicación de shannon y weaver
Modelo de comunicación de shannon y weaverCelesteRamirez30
 

La actualidad más candente (11)

Tercera clase teorías mediales
Tercera clase teorías medialesTercera clase teorías mediales
Tercera clase teorías mediales
 
Practicando análisis cibermétrico en redes de investigadores
Practicando análisis cibermétrico en redes de investigadoresPracticando análisis cibermétrico en redes de investigadores
Practicando análisis cibermétrico en redes de investigadores
 
La comunicación humana y la teoría matemática de la comunicación
La comunicación humana y la teoría matemática de la comunicaciónLa comunicación humana y la teoría matemática de la comunicación
La comunicación humana y la teoría matemática de la comunicación
 
Tdi
TdiTdi
Tdi
 
Teoría matemática de la información
Teoría matemática de la informaciónTeoría matemática de la información
Teoría matemática de la información
 
Modelo de comunicación de claude shannon
Modelo de comunicación de claude shannonModelo de comunicación de claude shannon
Modelo de comunicación de claude shannon
 
Teoría matemática de la comunicación
Teoría matemática de la comunicaciónTeoría matemática de la comunicación
Teoría matemática de la comunicación
 
Modelo matematico
Modelo matematicoModelo matematico
Modelo matematico
 
Visualizing Data: The 7 stages of data visualization
Visualizing Data: The 7 stages of data visualizationVisualizing Data: The 7 stages of data visualization
Visualizing Data: The 7 stages of data visualization
 
Modelo de comunicación de shannon y weaver
Modelo de comunicación de shannon y weaverModelo de comunicación de shannon y weaver
Modelo de comunicación de shannon y weaver
 
Expo 1
Expo 1Expo 1
Expo 1
 

Similar a Teoria de la informacion

Similar a Teoria de la informacion (20)

Teoria de la informacion
Teoria de la informacionTeoria de la informacion
Teoria de la informacion
 
Teoria de-lainformacion 1
Teoria de-lainformacion 1Teoria de-lainformacion 1
Teoria de-lainformacion 1
 
Teoría de la Información .pdf
Teoría de la Información .pdfTeoría de la Información .pdf
Teoría de la Información .pdf
 
Teoria de la informacion
Teoria de la informacion Teoria de la informacion
Teoria de la informacion
 
La Teoria de la Informacion
La Teoria de la InformacionLa Teoria de la Informacion
La Teoria de la Informacion
 
Unidad 6
Unidad 6Unidad 6
Unidad 6
 
Comunicacion 22 4.19
Comunicacion 22 4.19Comunicacion 22 4.19
Comunicacion 22 4.19
 
Markov
MarkovMarkov
Markov
 
Teoria de la informacion
Teoria de la informacion Teoria de la informacion
Teoria de la informacion
 
El fenómeno comunicativo
El fenómeno comunicativoEl fenómeno comunicativo
El fenómeno comunicativo
 
Expo_Medidas_de_Informacion.pptx
Expo_Medidas_de_Informacion.pptxExpo_Medidas_de_Informacion.pptx
Expo_Medidas_de_Informacion.pptx
 
La comunicación humana y la teoría matemática de la comunicación
La comunicación humana y la teoría matemática de la comunicaciónLa comunicación humana y la teoría matemática de la comunicación
La comunicación humana y la teoría matemática de la comunicación
 
Teoria de la_info
Teoria de la_infoTeoria de la_info
Teoria de la_info
 
Desarrollo_Fase_1_Mauricio_Perez
Desarrollo_Fase_1_Mauricio_Perez Desarrollo_Fase_1_Mauricio_Perez
Desarrollo_Fase_1_Mauricio_Perez
 
lecture4teoradelainformacin-120221112111-phpapp02.pptx
lecture4teoradelainformacin-120221112111-phpapp02.pptxlecture4teoradelainformacin-120221112111-phpapp02.pptx
lecture4teoradelainformacin-120221112111-phpapp02.pptx
 
DOCUMENTO UNICO
DOCUMENTO UNICODOCUMENTO UNICO
DOCUMENTO UNICO
 
Investigacion
InvestigacionInvestigacion
Investigacion
 
Borrador
BorradorBorrador
Borrador
 
Teoria de la Comunicación
Teoria de la ComunicaciónTeoria de la Comunicación
Teoria de la Comunicación
 
Teoría Matemática de la Información
Teoría Matemática de la InformaciónTeoría Matemática de la Información
Teoría Matemática de la Información
 

Más de Erick Calderin

Sistema autoalerta para vehículos.
Sistema autoalerta para vehículos.Sistema autoalerta para vehículos.
Sistema autoalerta para vehículos.Erick Calderin
 
Arboles binarios - Aplicación al mundial de fútbol 2010
Arboles binarios - Aplicación al mundial de fútbol 2010Arboles binarios - Aplicación al mundial de fútbol 2010
Arboles binarios - Aplicación al mundial de fútbol 2010Erick Calderin
 
Integral de Raíz Cúbica de Tan(x)
Integral de Raíz Cúbica de Tan(x)Integral de Raíz Cúbica de Tan(x)
Integral de Raíz Cúbica de Tan(x)Erick Calderin
 
Guia básica Packet Tracer
Guia básica Packet TracerGuia básica Packet Tracer
Guia básica Packet TracerErick Calderin
 
Programacion Lineal - Problema Dual y Primal
Programacion Lineal - Problema Dual y PrimalProgramacion Lineal - Problema Dual y Primal
Programacion Lineal - Problema Dual y PrimalErick Calderin
 
Aplicación móvil para el control de pedidos en un restaurante
Aplicación móvil para el control de pedidos en un restauranteAplicación móvil para el control de pedidos en un restaurante
Aplicación móvil para el control de pedidos en un restauranteErick Calderin
 

Más de Erick Calderin (9)

Sistema autoalerta para vehículos.
Sistema autoalerta para vehículos.Sistema autoalerta para vehículos.
Sistema autoalerta para vehículos.
 
Arboles binarios - Aplicación al mundial de fútbol 2010
Arboles binarios - Aplicación al mundial de fútbol 2010Arboles binarios - Aplicación al mundial de fútbol 2010
Arboles binarios - Aplicación al mundial de fútbol 2010
 
Integral de Raíz Cúbica de Tan(x)
Integral de Raíz Cúbica de Tan(x)Integral de Raíz Cúbica de Tan(x)
Integral de Raíz Cúbica de Tan(x)
 
Guia básica Packet Tracer
Guia básica Packet TracerGuia básica Packet Tracer
Guia básica Packet Tracer
 
Programacion Lineal - Problema Dual y Primal
Programacion Lineal - Problema Dual y PrimalProgramacion Lineal - Problema Dual y Primal
Programacion Lineal - Problema Dual y Primal
 
Metodo de la gran m
Metodo de la gran mMetodo de la gran m
Metodo de la gran m
 
Taller prog. lineal
Taller   prog. linealTaller   prog. lineal
Taller prog. lineal
 
Aplicación móvil para el control de pedidos en un restaurante
Aplicación móvil para el control de pedidos en un restauranteAplicación móvil para el control de pedidos en un restaurante
Aplicación móvil para el control de pedidos en un restaurante
 
Economia de bienestar
Economia de bienestarEconomia de bienestar
Economia de bienestar
 

Último

DIAPOSITIVASDEPRIMERACATEGORIAIIPARTE (1).pptx
DIAPOSITIVASDEPRIMERACATEGORIAIIPARTE (1).pptxDIAPOSITIVASDEPRIMERACATEGORIAIIPARTE (1).pptx
DIAPOSITIVASDEPRIMERACATEGORIAIIPARTE (1).pptxprofesionalscontable
 
Testimonio-de-segunda-revolucion-industrial.pdf
Testimonio-de-segunda-revolucion-industrial.pdfTestimonio-de-segunda-revolucion-industrial.pdf
Testimonio-de-segunda-revolucion-industrial.pdfd71229811u
 
NEMATODOS TISULARES-2020.pdf, DE LA UNAN MANAGUA
NEMATODOS TISULARES-2020.pdf, DE LA UNAN MANAGUANEMATODOS TISULARES-2020.pdf, DE LA UNAN MANAGUA
NEMATODOS TISULARES-2020.pdf, DE LA UNAN MANAGUAcelixfabiolacaleropa
 
TEMA 4 TEORIAS SOBRE EL ORIGEN DE LA VIDA.pdf
TEMA 4 TEORIAS SOBRE EL ORIGEN DE LA VIDA.pdfTEMA 4 TEORIAS SOBRE EL ORIGEN DE LA VIDA.pdf
TEMA 4 TEORIAS SOBRE EL ORIGEN DE LA VIDA.pdfrobertocarlosbaltaza
 
Tortosa et al. 2º Simposio Internacional Composta.pdf
Tortosa et al. 2º Simposio Internacional Composta.pdfTortosa et al. 2º Simposio Internacional Composta.pdf
Tortosa et al. 2º Simposio Internacional Composta.pdfGermán Tortosa
 
Carbohidratos, lipidos, acidos nucleicos, y principios del metabolismo.
Carbohidratos, lipidos, acidos nucleicos, y principios del metabolismo.Carbohidratos, lipidos, acidos nucleicos, y principios del metabolismo.
Carbohidratos, lipidos, acidos nucleicos, y principios del metabolismo.Ralvila5
 
NCh 170-2016_07.03.17.pdf tecnologia del hormigon
NCh 170-2016_07.03.17.pdf tecnologia del hormigonNCh 170-2016_07.03.17.pdf tecnologia del hormigon
NCh 170-2016_07.03.17.pdf tecnologia del hormigonalejandroperezguajar
 
CLASE 5 HOJA 2022.ppt botanica general 1
CLASE 5 HOJA 2022.ppt botanica general 1CLASE 5 HOJA 2022.ppt botanica general 1
CLASE 5 HOJA 2022.ppt botanica general 1jesusjja0210
 
fundamentos del mejoramiento genético en los animales
fundamentos del mejoramiento genético en los animalesfundamentos del mejoramiento genético en los animales
fundamentos del mejoramiento genético en los animalesJuanVillarreal79
 
calculo aplicado a la fisica 3 .pdf
calculo  aplicado  a  la  fisica  3 .pdfcalculo  aplicado  a  la  fisica  3 .pdf
calculo aplicado a la fisica 3 .pdfRolandPisfilLLuenGor
 
AA. VV. - Historia mínima del Confucianismo [2021].pdf
AA. VV. - Historia mínima del Confucianismo [2021].pdfAA. VV. - Historia mínima del Confucianismo [2021].pdf
AA. VV. - Historia mínima del Confucianismo [2021].pdffrank0071
 
Evangelismo los pasos para logar la sancion
Evangelismo los pasos para logar la sancionEvangelismo los pasos para logar la sancion
Evangelismo los pasos para logar la sancionniro13
 
CEREBRO Y CONDUCTA ESPECIALIDAD GM_091358.pptx
CEREBRO Y CONDUCTA ESPECIALIDAD GM_091358.pptxCEREBRO Y CONDUCTA ESPECIALIDAD GM_091358.pptx
CEREBRO Y CONDUCTA ESPECIALIDAD GM_091358.pptxfranciscofernandez106395
 
METODOS ANTICONCEPTIVOS UNIVERSIDAD SEÑOR DE SIPAN.pptx
METODOS ANTICONCEPTIVOS UNIVERSIDAD SEÑOR DE SIPAN.pptxMETODOS ANTICONCEPTIVOS UNIVERSIDAD SEÑOR DE SIPAN.pptx
METODOS ANTICONCEPTIVOS UNIVERSIDAD SEÑOR DE SIPAN.pptxlilianabarbozavasque
 
Aprendamos el proceso de regeneración.pptx
Aprendamos el proceso de regeneración.pptxAprendamos el proceso de regeneración.pptx
Aprendamos el proceso de regeneración.pptxJuanaMLpez
 
Clase ii INTRODUCCION AL TRABAJO SOCIAL.
Clase ii INTRODUCCION AL TRABAJO SOCIAL.Clase ii INTRODUCCION AL TRABAJO SOCIAL.
Clase ii INTRODUCCION AL TRABAJO SOCIAL.Victor Rivera Tapia
 
Zambrano, R. - Historia mínima de la música en Occidente [2013].pdf
Zambrano, R. - Historia mínima de la música en Occidente [2013].pdfZambrano, R. - Historia mínima de la música en Occidente [2013].pdf
Zambrano, R. - Historia mínima de la música en Occidente [2013].pdffrank0071
 
Miología del bovino veterinaria métodos rápidos
Miología del bovino veterinaria métodos rápidosMiología del bovino veterinaria métodos rápidos
Miología del bovino veterinaria métodos rápidosmarielbispurocoleo5
 
Irrigacion e Inervacion de la articulación mandibular
Irrigacion e Inervacion de la articulación mandibularIrrigacion e Inervacion de la articulación mandibular
Irrigacion e Inervacion de la articulación mandibularAdrinCrdenas9
 
CLASE 2- INFECCIONES nosocomialescesalud.pptx
CLASE 2- INFECCIONES nosocomialescesalud.pptxCLASE 2- INFECCIONES nosocomialescesalud.pptx
CLASE 2- INFECCIONES nosocomialescesalud.pptxLuisaPerdomo16
 

Último (20)

DIAPOSITIVASDEPRIMERACATEGORIAIIPARTE (1).pptx
DIAPOSITIVASDEPRIMERACATEGORIAIIPARTE (1).pptxDIAPOSITIVASDEPRIMERACATEGORIAIIPARTE (1).pptx
DIAPOSITIVASDEPRIMERACATEGORIAIIPARTE (1).pptx
 
Testimonio-de-segunda-revolucion-industrial.pdf
Testimonio-de-segunda-revolucion-industrial.pdfTestimonio-de-segunda-revolucion-industrial.pdf
Testimonio-de-segunda-revolucion-industrial.pdf
 
NEMATODOS TISULARES-2020.pdf, DE LA UNAN MANAGUA
NEMATODOS TISULARES-2020.pdf, DE LA UNAN MANAGUANEMATODOS TISULARES-2020.pdf, DE LA UNAN MANAGUA
NEMATODOS TISULARES-2020.pdf, DE LA UNAN MANAGUA
 
TEMA 4 TEORIAS SOBRE EL ORIGEN DE LA VIDA.pdf
TEMA 4 TEORIAS SOBRE EL ORIGEN DE LA VIDA.pdfTEMA 4 TEORIAS SOBRE EL ORIGEN DE LA VIDA.pdf
TEMA 4 TEORIAS SOBRE EL ORIGEN DE LA VIDA.pdf
 
Tortosa et al. 2º Simposio Internacional Composta.pdf
Tortosa et al. 2º Simposio Internacional Composta.pdfTortosa et al. 2º Simposio Internacional Composta.pdf
Tortosa et al. 2º Simposio Internacional Composta.pdf
 
Carbohidratos, lipidos, acidos nucleicos, y principios del metabolismo.
Carbohidratos, lipidos, acidos nucleicos, y principios del metabolismo.Carbohidratos, lipidos, acidos nucleicos, y principios del metabolismo.
Carbohidratos, lipidos, acidos nucleicos, y principios del metabolismo.
 
NCh 170-2016_07.03.17.pdf tecnologia del hormigon
NCh 170-2016_07.03.17.pdf tecnologia del hormigonNCh 170-2016_07.03.17.pdf tecnologia del hormigon
NCh 170-2016_07.03.17.pdf tecnologia del hormigon
 
CLASE 5 HOJA 2022.ppt botanica general 1
CLASE 5 HOJA 2022.ppt botanica general 1CLASE 5 HOJA 2022.ppt botanica general 1
CLASE 5 HOJA 2022.ppt botanica general 1
 
fundamentos del mejoramiento genético en los animales
fundamentos del mejoramiento genético en los animalesfundamentos del mejoramiento genético en los animales
fundamentos del mejoramiento genético en los animales
 
calculo aplicado a la fisica 3 .pdf
calculo  aplicado  a  la  fisica  3 .pdfcalculo  aplicado  a  la  fisica  3 .pdf
calculo aplicado a la fisica 3 .pdf
 
AA. VV. - Historia mínima del Confucianismo [2021].pdf
AA. VV. - Historia mínima del Confucianismo [2021].pdfAA. VV. - Historia mínima del Confucianismo [2021].pdf
AA. VV. - Historia mínima del Confucianismo [2021].pdf
 
Evangelismo los pasos para logar la sancion
Evangelismo los pasos para logar la sancionEvangelismo los pasos para logar la sancion
Evangelismo los pasos para logar la sancion
 
CEREBRO Y CONDUCTA ESPECIALIDAD GM_091358.pptx
CEREBRO Y CONDUCTA ESPECIALIDAD GM_091358.pptxCEREBRO Y CONDUCTA ESPECIALIDAD GM_091358.pptx
CEREBRO Y CONDUCTA ESPECIALIDAD GM_091358.pptx
 
METODOS ANTICONCEPTIVOS UNIVERSIDAD SEÑOR DE SIPAN.pptx
METODOS ANTICONCEPTIVOS UNIVERSIDAD SEÑOR DE SIPAN.pptxMETODOS ANTICONCEPTIVOS UNIVERSIDAD SEÑOR DE SIPAN.pptx
METODOS ANTICONCEPTIVOS UNIVERSIDAD SEÑOR DE SIPAN.pptx
 
Aprendamos el proceso de regeneración.pptx
Aprendamos el proceso de regeneración.pptxAprendamos el proceso de regeneración.pptx
Aprendamos el proceso de regeneración.pptx
 
Clase ii INTRODUCCION AL TRABAJO SOCIAL.
Clase ii INTRODUCCION AL TRABAJO SOCIAL.Clase ii INTRODUCCION AL TRABAJO SOCIAL.
Clase ii INTRODUCCION AL TRABAJO SOCIAL.
 
Zambrano, R. - Historia mínima de la música en Occidente [2013].pdf
Zambrano, R. - Historia mínima de la música en Occidente [2013].pdfZambrano, R. - Historia mínima de la música en Occidente [2013].pdf
Zambrano, R. - Historia mínima de la música en Occidente [2013].pdf
 
Miología del bovino veterinaria métodos rápidos
Miología del bovino veterinaria métodos rápidosMiología del bovino veterinaria métodos rápidos
Miología del bovino veterinaria métodos rápidos
 
Irrigacion e Inervacion de la articulación mandibular
Irrigacion e Inervacion de la articulación mandibularIrrigacion e Inervacion de la articulación mandibular
Irrigacion e Inervacion de la articulación mandibular
 
CLASE 2- INFECCIONES nosocomialescesalud.pptx
CLASE 2- INFECCIONES nosocomialescesalud.pptxCLASE 2- INFECCIONES nosocomialescesalud.pptx
CLASE 2- INFECCIONES nosocomialescesalud.pptx
 

Teoria de la informacion

  • 1. LENGUAJES DE OPTIMIZACION PARA LA TOMA DE DECISIONES Lagrange y Teoria de la Informacion 2017 Erick CALDERIN
  • 2. Autor: Erick CALDERIN 1 LAGRANGE Y TEORIA DE LA INFORMACION CALDERIN MORALES ERICK DAVID LENGUAJES DE OPTIMIZACION PARA LA TOMA DE DECISIONES PRESENTADO A: Dr. FRANCISCO IBAÑEZ. UNIVERSIDAD NACIONAL DE SAN JUAN DEPARTAMENTO DE POSGRADO, FCEFN SAN JUAN, ARGENTINA
  • 3. Autor: Erick CALDERIN 2 CONTENIDO INTRODUCCION........................................................................................................................ 4 1. OBJETIVOS ........................................................................................................................ 5 1.1. OBJETIVO GENERAL............................................................................................... 5 1.2. OBJETIVOS ESPECIFICOS .................................................................................... 5 2. ANTECEDENTES .............................................................................................................. 6 3. TEORIA DE LA INFORMACION...................................................................................... 8 3.1. ENTROPIA DE LA INFORMACION ........................................................................ 9 4. SOLUCION AL PROBLEMA........................................................................................... 10 4.1. SOLUCION MATEMATICA..................................................................................... 10 4.2. SOLUCION CON MATLAB..................................................................................... 13 4.3. ANALISIS DE RESULTADOS................................................................................ 20 CONCLUSION.......................................................................................................................... 21 BIBLIOGRAFIA......................................................................................................................... 22
  • 4. Autor: Erick CALDERIN 3 TABLA DE FIGURAS Figura 1. Esquema del modelo comunicativo de la Teoría de Shannon........................... 8 Figura 2. Grafica de función maximizadora en el espacio................................................. 15 Figura 3. Curvas de nivel y ecuación de restricción ........................................................... 16 Figura 4. Cuando P1=0 y P2=1.............................................................................................. 17 Figura 5. Cuando P1=1 y P2=0.............................................................................................. 17 Figura 6. Señalización de coordenadas a partir de la salida original............................... 18 Figura 7. Ejemplo 2 en la grafica ........................................................................................... 19
  • 5. Autor: Erick CALDERIN 4 INTRODUCCION La teoría de la información también conocida como teoría matemática de la comunicación, una teoría propuesta por Claude E. Shannon y Warren Weaver con el fin de cuantificar la información. En realidad, fue Hartley el primero que propuso la idea de cuantificar la información, pero Shannon en su artículo “A Mathematical Theory of Communication” marco la teoría de forma oficial, y desde entonces la teoría de la información quedo asignada como rama de la matemática y con alcances en el mundo de la informática. Este mismo concepto se posteriorizo de una forma más refinada en la publicación de artículos de otros autores como Brockway McMillan en “The Basic Theorems of Information Theory”. (Jaimes, 2008) Se puede examinar, además, desde distintos enfoques y en este trabajo cubriremos el contexto de uso de multiplicadores de Lagrange en la resolución de un caso de aplicación del tema, apoyado en un sistema de programación y lenguaje llamado MATLAB; además se aplicarán conceptos de cálculo multivariable para la resolución del mismo ejemplo que soporte la solución arrojada por el software, también servirá como herramienta para un análisis profundo pues ya se tendrían identificado algunos datos que ayuden a obtener conclusiones importantes a partir del enfoque matemático y computacional.
  • 6. Autor: Erick CALDERIN 5 1. OBJETIVOS 1.1. OBJETIVO GENERAL Analizar los alcances de la Teoría de la Información con un caso asignación de probabilidades no óptimas y óptimas. 1.2. OBJETIVOS ESPECIFICOS ▪ Realizar una exploración en los antecedentes de la Teoría de la Información cubriendo aquellos casos de éxitos útiles para el desarrollo de este informe. ▪ Formular planteamiento matemático del tema principal aplicando Lagrange. ▪ Programar en Matlab un ejemplo de Teoría de la Información. ▪ Analizar resultados del software con los obtenidos de la formulación matemática.
  • 7. Autor: Erick CALDERIN 6 2. ANTECEDENTES De los antecedentes explorados a continuación no se encontró alguno registrado a nivel nacional y en ningún país de américa latina. Se exponen algunos casos de estudio de la teoría de la información. APLICACIONES DE LA TERIA DE LA INFORMACION EN ANALISIS DE SECUENCIA BIOLOGICA Este proyecto hizo énfasis en la bilogía molecular descubriendo que tiene muchas aplicaciones en la teoría de la información. Se investigo la relación entre la TI y la biología, y como la entropía puede llegar a explicar la secuencia de análisis de ADN, acerca de esto, Shannon había planteado los primeros acercamientos y más adelante otros investigadores habían propuestos teorías sólidas y convincentes funcionando como base para la elaboración de estudios como el que se detalla en esta sección. Aunque no exhaustiva, esta revisión intenta categorizar los métodos existentes e indicar su relación con temas transversales más amplios, tales como firmas genómicas, compresión y complejidad de datos, análisis de series de tiempo y clasificación filogenética, proporcionando un recurso para desarrollos futuros en esta área. (Vinga, 2014) APLICACIONES EN TECNOLOGIA DE PROGAPACION DEL ESPECTRO Relata uno de los desarrollos por parte de los militares durante la Segunda Guerra Mundial en donde las señales de radio fue clave en el lanzamiento de misiles guiados y era necesario que esas señales estuvieran protegidas ante la detección del enemigo. El concepto de propagación del espectro como se conoce actualmente, proviene de la idea de Shannon acerca de la entropía. El aporte de Shannon señala que para una buena comunicación se necesita un portador de entropía baja, como el ruido, para transmitir un mensaje de alta entropía. La tecnología de propagación del espectro difunde una señal de radio sobre un ancho de banda que lo hace resistente a la interferencia.
  • 8. Autor: Erick CALDERIN 7 Hoy en día, la propagación del espectro se ve aplicada en tecnologías CDMA 1en teléfonos celulares. (Aftab, O., Cheung, P., Kim, A., Thakkar, S., and Yeddanapudi, 2001) 1 CDMA: En los EE.UU., las operadoras CDMA utilizan una red basada en listas blancas para verificar sus abonados. Eso significa que sólo se puede cambiar de teléfono con el permiso de la compañía, y una operadora no tiene por qué aceptar cualquier teléfono en su red.
  • 9. Autor: Erick CALDERIN 8 3. TEORIA DE LA INFORMACION El modelo propuesto por Shannon consiste en un sistema general de comunicación que constan de una fuente de información que emite una señal a través de un transmisor, viajando por un canal provocando alteraciones en la señal, hasta que finalmente sale del canal llegando a un receptor que decodifica la señal y la envía a un destinatario. Ver Figura 1 Figura 1. Esquema del modelo comunicativo de la Teoría de Shannon A partir de lo anterior, se pretende buscar la mejor forma de codificar el mensaje sin que sea susceptible a distorsiones o modificaciones que puedan llegar a alterar su contenido. Un ejemplo de codificación es la conversión de voz e imagen en impulsos eléctricos o electromagnéticos como un método para encriptar los mensajes asegurando su privacidad. En la teoría de la información, la cantidad de información es medible por el hecho de corresponder a un valor matemático. El término cantidad no se refiere a la cuantía de datos, sino a la probabilidad de que un mensaje, dentro de un conjunto de mensajes posibles, sea recibido. En lo que se refiere a la cantidad de información, el valor más alto se le asigna al mensaje que menos probabilidades tiene de ser recibido. Si se sabe con certeza FUENTE DE INFORMACION Mensaje TRANSMISOR RECEPTOR Mensaje DESTINATARIO Señal FUENTE DE RUIDO Señal recibida
  • 10. Autor: Erick CALDERIN 9 que un mensaje va a ser recibido, su cantidad de información es cero. (Shannon, 1948) La cantidad de información crece cuando todas las alternativas son igual de probables o cuanto mayor sea el número de alternativas. La ocurrencia de mensajes de alta probabilidad de aparición aporta menos información que la ocurrencia de mensajes menos probables. 3.1. ENTROPIA DE LA INFORMACION Según Shannon, la información emitida por una fuente se puede medir con su entropía. “En el ámbito de la teoría de la información la entropía, también llamada entropía de la información y entropía de Shannon (en honor a Claude E. Shannon), mide la incertidumbre de una fuente de información.” (Wikpedia, 2017) Para entender la utilidad de estos conceptos, imaginamos una fuente de información que emite símbolos al azar y se plantea la incógnita sobre cuál será la próxima salida de la fuente. Se sabe con certeza las probabilidades de ocurrencia de cada símbolo. Entonces se concluye con los siguientes interrogantes: ¿Cuan impreciso será el próximo símbolo que la fuente emitirá? La incertidumbre del próximo símbolo está ligada al concepto de entropía. (Shannon, 1948) Luego de varios procedimientos matemáticos, Shannon concluye que: 𝐻 = − ∑ 𝑃𝑖 𝑛 1 log2 𝑃𝑖 Donde H es la entropía de la información. 𝑛 es la cantidad de sucesos posibles. 𝑃𝑖 corresponde al valor de la probabilidad de cada suceso. Se utiliza Logaritmo en base 2 para que la solución del caso más simple sea 1. Recordemos que al haber dos probabilidades se constituye este tipo de casos. A partir de sus estudios, Shannon comprobó que la entropía es el valor máximo al que se puede codificar la información sin ser distorsionada o alterada. (Franquet Bernis, 2008)
  • 11. Autor: Erick CALDERIN 10 4. SOLUCION AL PROBLEMA 4.1. SOLUCION MATEMATICA Se utilizarán los multiplicadores de Lagrange (Un concepto de cálculo vectorial) para maximizar la función sujeta a una restricción, forzando la positividad de las variables. Función maximizadora: Es una función continua y diferenciable. 𝑷𝟏 ∗ 𝐥𝐨𝐠 𝟐 𝟏 𝑷𝟏 + 𝑷𝟐 ∗ 𝐥𝐨𝐠 𝟐 𝟏 𝑷𝟐 −𝑷𝟏 ∗ 𝐥𝐨𝐠 𝟐(𝑷𝟏) − 𝑷𝟐 ∗ 𝐥𝐨𝐠 𝟐(𝑷𝟐) Sujeto a: ∑ 𝑷𝒊 = 𝟏 𝒏 𝒊=𝟏 𝑷𝟏 + 𝑷𝟐 = 𝟏 Función aplicando estructura de Lagrange: 𝑳(𝑷, 𝝀) = − ∑ 𝑷𝒊 𝐥𝐨𝐠 𝟐 𝑷𝒊 + 𝝀 (∑ 𝑷𝒊 − 𝟏 𝒏 𝒊=𝟏 ) 𝒏 𝒊=𝟏 𝑳(𝑷𝟏, 𝑷𝟐) = −𝑷𝟏 𝐥𝐨𝐠 𝟐 𝑷𝟏 − 𝑷𝟐 𝐥𝐨𝐠 𝟐 𝑷𝟐 + 𝝀(𝑷𝟏 + 𝑷𝟐 − 𝟏) Formula general para derivadas parciales: 𝝏𝑳 𝝏𝑷𝒊 = − 𝐥𝐨𝐠 𝟐 𝒆 − 𝐥𝐨𝐠 𝟐 𝑷𝒊 + 𝝀 Derivada parcial con respecto a P1: 𝝏𝑳 𝝏𝑷𝟏 = − 𝑷𝟏 ( 𝟏 𝑷𝟏 𝐥𝐨𝐠 𝟐 𝒆) − 𝐥𝐨𝐠 𝟐 𝑷𝟏 + 𝝀
  • 12. Autor: Erick CALDERIN 11 𝝏𝑳 𝝏𝑷𝟏 = − 𝐥𝐨𝐠 𝟐 𝒆 − 𝐥𝐨𝐠 𝟐 𝑷𝟏 + 𝝀 (𝟏) Derivada parcial con respecto a P2: 𝝏𝑳 𝝏𝑷𝟐 = − 𝑷𝟐 ( 𝟏 𝑷𝟐 𝐥𝐨𝐠 𝟐 𝒆) − 𝐥𝐨𝐠 𝟐 𝑷𝟐 + 𝝀 𝝏𝑳 𝝏𝑷𝟐 = − 𝐥𝐨𝐠 𝟐 𝒆 − 𝐥𝐨𝐠 𝟐 𝑷𝟐 + 𝝀 (𝟐) Derivada parcial con respecto a 𝝀: 𝝏𝑳 𝝏𝝀 = ∑ 𝑷𝒊 𝒏 𝒊=𝟏 − 𝟏 𝝏𝑳 𝝏𝝀 = 𝑷𝟏 + 𝑷𝟐 − 𝟏 (𝟑) Se obtuvo un sistema de ecuaciones de grado 3 con incógnitas P1, P2 y 𝝀 Se igualan las ecuaciones (1) y (2). − 𝐥𝐨𝐠 𝟐 𝒆 − 𝐥𝐨𝐠 𝟐 𝑷𝟏 + 𝝀 = 𝟎 − 𝐥𝐨𝐠 𝟐 𝒆 − 𝐥𝐨𝐠 𝟐 𝑷𝟐 + 𝝀 = 𝟎 Se multiplica por -1 en cualquiera de las ecuaciones para eliminar la variable 𝝀 del sistema: 𝐥𝐨𝐠 𝟐 𝒆 + 𝐥𝐨𝐠 𝟐 𝑷𝟏 − 𝝀 = 𝟎 − 𝐥𝐨𝐠 𝟐 𝒆 − 𝐥𝐨𝐠 𝟐 𝑷𝟐 + 𝝀 = 𝟎 𝐥𝐨𝐠 𝟐 𝑷𝟏 − 𝐥𝐨𝐠 𝟐 𝑷𝟐 = 𝟎 𝐥𝐨𝐠 𝟐 𝑷𝟏 − 𝐥𝐨𝐠 𝟐 𝑷𝟐 = 𝟎 𝐥𝐨𝐠 𝟐 𝑷𝟏 = 𝐥𝐨𝐠 𝟐 𝑷𝟐
  • 13. Autor: Erick CALDERIN 12 𝑷𝟏 = 𝑷𝟐 Reemplazando en la ecuación (3) Si 𝑷𝟏 = 𝑷𝟐, entonces: 𝑷𝟏 + 𝑷𝟏 − 𝟏 = 𝟎 𝟐𝑷𝟏 = 𝟏 Se alcanza el máximo con un valor de 0.5 para las P1 y P2. Si se reemplaza estos valores en la función maximizadora, se obtiene: Como P1=P2, entonces: 𝑯 = −𝑷𝟏 ∗ 𝐥𝐨𝐠 𝟐(𝑷𝟏) − 𝑷𝟐 ∗ 𝐥𝐨𝐠 𝟐(𝑷𝟐) 𝑯 = −𝑷𝟏 ∗ 𝐥𝐨𝐠 𝟐(𝑷𝟏) − 𝑷𝟏 ∗ 𝐥𝐨𝐠 𝟐(𝑷𝟏) 𝑯 = −𝟐 ∗ 𝑷𝟏 ∗ 𝐥𝐨𝐠 𝟐(𝑷𝟏) 𝑯 = −𝟐 ∗ 𝟏 𝟐 ∗ 𝐥𝐨𝐠 𝟐 ( 𝟏 𝟐 ) 𝑯 = − 𝐥𝐨𝐠 𝟐 ( 𝟏 𝟐 ) El valor máximo corresponde a 1. 𝑷𝟏 = 𝑷𝟐 = 𝟏/𝟐 𝑯 = 𝟏
  • 14. Autor: Erick CALDERIN 13 4.2. SOLUCION CON MATLAB El primero paso es crear un script con el nombre Principal que tendrá el código a continuación: function funcionPrincipal = Principal() %Llamado a la función MeshGrid para asignar un arreglo de valores a P1 y P2 %de 0 a 1 con un salto de 0.02 [P1,P2]=meshgrid(0:0.02:1); %Se invoca la función maximizadora con el mismo nombre del script. %Los parámetros corresponden a las variables P1 y P2 creadas en la línea %anterior. z=FuncionMaximizadora(P1,P2); %Creacion del componente sobre el cual se llevará a cabo el trazado de la %grafica, figure(1); clf; %Variable cont con valor de 50 utilizado en las curvas de nivel cont = 50; %Se dibujan las curvas de nivel con la función contour. %Los parámetros son P1, para indicar un rango de valores en el eje X, P2 %para el eje Y. %Tratandose de curvas de nivel, se suministra una función de dos variables, %en este caso la función maximizadora ocupa el tercer parámetro. %El ultimo parámetros es la cantidad de curvas de nivel. C = contour(P1,P2,z, cont); hold on; %Sin la instrucción Hold on, las curvas no se conservarán cuando se grafique la función de restricción. %El método clabel etiqueta las curvas de nivel con un valor clabel(C); %La función de restricción es una línea recta compuesta por un conjunto %finito de puntos entre 0 y 1, con una distancia de separación muy mínima %con un valor de 0.001. Por esto, se crea la variable x1 y se le almacenan %el conjunto de datos. x1=0:0.001:1; %Se invoca la función de restricción con el mismo nombre del script. %El parámetro será el arreglo de números creados en la línea anterior. z2=FuncionRestriccion(x1);
  • 15. Autor: Erick CALDERIN 14 %La función plot finalmente crea una línea 2D de los datos en el eje Y de %los valores correspondientes en X. %Sus parámetros para este caso son vector x1, la función de una variable y %un caracter para el trazado de la línea, lo mas usual es utilizar el %'punto' para dejar en claro el concepto de una línea recta. plot(x1,z2,'.'); %Creacion de una nueva figura para la ecuacion maximizadora en 3D, figure(2); clf; %Uso de la funcion mesh para crear una superior con los parametros X, Y y %Z. P1, P2 son valores conocidos, z corresponde a la funcion. mesh(P1,P2,z); hold on; %Opcional, se dibujan nuevas curvas de nivel. C = contour(P1,P2,z, cont); hold on; %Se habilita la opcion de girar la grafica con el puntero del mouse. rotate3d on; %Cierre de la función con la palabra reservada 'end'. end Se crea un nuevo script con el nombre FuncionMaximizadora que tendrá el código a continuación: %Declaración de la función con alias 'result' seguido del nombre del %script. function result = FuncionMaximizadora(P1,P2) %Función maximizadora siguiendo la definición expuesta en la teoría. %Se indica la salida asignando a la variable 'result' el valor la función. result=-P1.*log2(P1)-P2.*log2(P2); %Cierre de la función con la palabra reservada 'end'. end Se crea un último script con el nombre FuncionRestriccion con las siguientes líneas de codigo: %Declaración de la función con alias 'result' seguido del nombre del %script. function result= FuncionRestriccion(P1) %P2=1-P1 %Función de restricción de una sola variable siguiendo la definición %expuesta en la teoría. %Se indica la salida asignando a la variable 'result' el valor la función.
  • 16. Autor: Erick CALDERIN 15 result=1-P1; %Cierre de la función con la palabra reservada 'end'. end Finalmente, ejecutar el script Principal para observar la salida del programa. Figura 2. Grafica de función maximizadora en el espacio. La Figura 2, es necesaria para tener un contexto de la ecuación en su forma tridimensional y como refleja las curvas de nivel, pero no se utilizará en ningún análisis. De aquí en adelante, se debe hacer énfasis en la Figura 3, el cual consiste en un plano con las curvas de nivel y la ecuación de restricción.
  • 17. Autor: Erick CALDERIN 16 Figura 3. Curvas de nivel y ecuación de restricción Se puede notar a simple vista las curvas de nivel de la función multivariable y la recta de color azul de la restricción definida por la ecuación P2=P1-1. Recordemos que el conjunto de probabilidades P1 y P2 representan los ejes horizontal y vertical respectivamente. Cuando P1 es igual a cero y P2 igual a 1, o P2 igual a cero y P1 igual a 1, o bien P1 y P2 son iguales a cero, entonces la cantidad de información que aportaría tendera a cero. Se ha ampliado la gráfica original para observar estos detalles. Ver Figura 4 y Figura 5.
  • 18. Autor: Erick CALDERIN 17 Figura 4. Cuando P1=0 y P2=1 Figura 5. Cuando P1=1 y P2=0 En los ejemplos anteriores, el valor de la entropía decrementa a medida que P1 o P2 disminuye hasta llegar al mínimo equivalente a cero. Sin embargo, el valor máximo de la entropía se da cuando los símbolos de la fuente son equiprobables, es decir, aquellas ocurrencias que tienen igual probabilidad de aparecer.
  • 19. Autor: Erick CALDERIN 18 La Figura 6, señala las coordenadas P1 y P2 con un valor de 0.5 en un punto de intersección que coincide de tal forma que la curva de restricción es tangente a la curva de nivel en su valor máximo (0.999, aproxidamente 1). En ningún otro punto se puede asegurar un valor de la entropía superior a 1. Figura 6. Señalización de coordenadas a partir de la salida original Ejemplo 1: Si P1 =0.44 y P2 =0.3, entonces: 𝑯 = −𝑷𝟏 ∗ 𝐥𝐨𝐠 𝟐(𝑷𝟏) − 𝑷𝟐 ∗ 𝐥𝐨𝐠 𝟐(𝑷𝟐) 𝑯 = −𝟎. 𝟒𝟒 ∗ 𝐥𝐨𝐠 𝟐(𝟎. 𝟒𝟒) − 𝟎. 𝟑 ∗ 𝐥𝐨𝐠 𝟐(𝟎. 𝟑) 𝑯 = 𝟏. 𝟎𝟒 Se obtuvo un valor superior a 1, pero no se cumple la restricción: 𝟎. 𝟑 + 𝟎. 𝟒𝟒 ≠ 𝟏 Ejemplo 2: Si P1 =0.6 y P2 =0.4, entonces: 𝑯 = −𝑷𝟏 ∗ 𝐥𝐨𝐠 𝟐(𝑷𝟏) − 𝑷𝟐 ∗ 𝐥𝐨𝐠 𝟐(𝑷𝟐) 𝑯 = −𝟎. 𝟔 ∗ 𝐥𝐨𝐠 𝟐(𝟎. 𝟔) − 𝟎. 𝟒 ∗ 𝐥𝐨𝐠 𝟐(𝟎. 𝟒)
  • 20. Autor: Erick CALDERIN 19 𝑯 = 𝟎. 𝟗𝟕 Se cumple la restricción: 𝟎. 𝟔 + 𝟎. 𝟒 = 𝟏 Pero el valor de la entropía (H) es inferior al máximo encontrado. Ver Figura 7: Figura 7. Ejemplo 2 en la grafica
  • 21. Autor: Erick CALDERIN 20 4.3. ANALISIS DE RESULTADOS El grafico obtenido con el software MATLAB fue una solución captable a simple vista, lanzando criterios a partir de un gráfico con muchas cualidades técnicas, lo cual deja de ser un medio fiable para convertirse en un soporte del planteamiento matemático elaborado en la sección anterior. De otro modo, también se puede apreciar la variación de las probabilidades y un aproximado para el valor de la entropía, lo que se destaca como una ventaja sobre el proceso Lagrangiano, porque estaríamos evitando el reemplazo de variables en la funcion objetivo y la ejecución de cálculos para obtener el resultado. Los multiplicadores de Lagrange consisten en un conjunto técnicas y pasos matemáticos ideales para problemas de este tipo, tiene un gran factor de participación en algunas ramas de economía brindando no solamente una solución esperada sino ciertas estimaciones para la toma de decisiones. Existen alternativas en MATLAB relacionadas a la teoría de la información, se trata del uso de la funcion wentropy para calcular la entropía de una señal. entropia=wentropy(mensaje,'shannon',0); 1) mensaje puede ser un vector o matriz. 2) El segundo parámetro es el método a utilizar, se indica entre comillas simples: ‘shannon’. 3) El ultimo parámetro puede tener cualquier valor, pues no afecta el resultado. Esta función suele tener mayor aplicabilidad en el procesamiento de imágenes, junto con otros procedimientos se obtiene la máxima entropía de una imagen a partir de la posibilidad de ocurrencia de cada pixel.
  • 22. Autor: Erick CALDERIN 21 CONCLUSION Este estudio no se llevó a cabo en breves instantes, pero se pudo acceder a ello gracias a las bondades de la matemática, como una ciencia exacta se obtuvieron resultados tan aproximados a la solución real con el más mínimo margen de error. Por otro lado, no estaba previsto descubrir aplicaciones de la teoría de la información en casos reales, tampoco se trataba de pequeñas investigaciones sino de la solución de problemas actuales en diversas ramas de la ciencia: La biología, informática y la matemática misma, entre otros, por lo que se puede llegar a pensar que el potencial de la teoría de Shannon aún no se ha explotado por completo.
  • 23. Autor: Erick CALDERIN 22 BIBLIOGRAFIA Aftab, O., Cheung, P., Kim, A., Thakkar, S., and Yeddanapudi, N. (2001). Information Theory and the Digital Age. Project History, Massachusetts Institute of Technology, 27. Retrieved from http://web.mit.edu/6.933/www/Fall2001/Shannon2.pdf Franquet Bernis, J. M. (2008). El Estudio operativo de la psicologia: una aproximación matemática. (UNED-Tortosa. C/Cervantes, Ed.) (Primera ed). Tortosa, España. Jaimes, Y. (2008). Fundamentos Matemáticos de la Teoría de la Información. UNIVERSIDAD SIMON BOLIVAR. Paul, E., & Petry, F. (2017). Information Theory in Soft Computing. Springer, Cham, 344(January). https://doi.org/4 Shannon, C. E. (1948). A mathematical theory of communication. The Bell System Technical Journal, 27(July 1928), 379–423. https://doi.org/10.1145/584091.584093 Vinga, S. (2014). Information theory applications for biological sequence analysis. Briefings in Bioinformatics, 15(3), 376–389. https://doi.org/10.1093/bib/bbt068 Wikpedia, L. enciclopedia libre. (2017). Entropia (Informacion). Retrieved July 12, 2017, from https://es.wikipedia.org/wiki/Entropía_(información)