La noción de información

608
-1

Published on

Published in: Education
0 Comments
0 Likes
Statistics
Notes
  • Be the first to comment

  • Be the first to like this

No Downloads
Views
Total Views
608
On Slideshare
0
From Embeds
0
Number of Embeds
0
Actions
Shares
0
Downloads
1
Comments
0
Likes
0
Embeds 0
No embeds

No notes for slide

La noción de información

  1. 1. El nacimiento de lanoción de información
  2. 2. El origen.• El origen de la noción moderna de información puede buscarse en tres direcciones: • Movimiento de ideas para distinguir entre la forma y el sentido. • Técnicas surgidas de las necesidades del transporte de mensajes. • Tradición de búsqueda de las condiciones de verdad de los enunciados.
  3. 3. El paso de mensajes.• La preocupación por la comunicación a distancia es relativamente tardía a pesar de los intentos de los seres humanos por transmitir mensajes durante toda la historia.• No es hasta el siglo XVIII cuando se organiza una red sistemática de comunicación a distancia.• Hasta ese momento en la cultura occidental se utilizaba el mensajero a pie, a caballo o en carroza.
  4. 4. El paso de mensajes.• Uno de los inventos que mejoró el paso de mensajes es el telégrafo.• Su invención no puede atribuirse sólo a una persona sino a un conjunto de científicos, técnicos o inventores.• Fue Samuel F.B. Morse (1791- 1872), pintor de profesión, el que construyó un telégrafo verdaderamente práctico y un alfabeto para enviar los mensajes.
  5. 5. El paso de mensajes.• El alfabeto de Morse estaba compuesto por rayas y puntos.• Es el llamado código Morse.• Siete años después de su invención, en 1844, se empezó a utilizar al instalarse la primera línea telegráfica experimental, de unos 64 kilómetros, entre Washington y Baltimore.
  6. 6. El paso de mensajesLa palabra "informática" escrita enMorse quedaría así: .. -. ..-. --- .-. -- .- - .. -.-. .-
  7. 7. El paso de mensajes.• Otro gran invento para el paso de mensajes es el <<oído artificial>>, mas conocido como teléfono.• El físico americano de origen inglés, Alexandre Graham Bell (1847-1922), lo inventó en 1.875.
  8. 8. El código binario.• El inventor del código binario fue el filósofo inglés Francis Bacon (1561- 1626).• La codificación se basaba en dos operaciones:  Transformar cada letra del alfabeto en una combinación de dos símbolos.  La otra operación hacia que un texto correspondiera a cada símbolo, a o b, una tipografía diferente.
  9. 9. El código binario.• Una de las primeras veces que se utilizó este código en una máquina fue en el telar del ingeniero francés Joseph Marie Jacquard (1752-1834).• El telar automático está controlado por tarjetas perforadas.• Solo con cambiar la secuencia de tarjetas se podía diseñar cualquier dibujo.
  10. 10. El código binario.Se pueden considerar a las tarjetasperforadas como el primer sistema decontrol programado.
  11. 11. La Teoría de la Información• El matemático inglés George Boole (1815-1864) creó los fundamentos de la lógica matemática mediante el álgebra simbólica, o también conocida como álgebra de Boole.• Claude Shannon (1916-2001) es considerado el padre de la Teoría de la información.• Shannon estudió las leyes de pensamiento de Boole y con ese trabajo encontró la solución a sus problemas.
  12. 12. La Teoría de la Información• Consideró que falso, o cero, era lo mismo que estar apagado y verdadero, o uno, lo mismo que estar encendido.• Para realizar circuitos, utilizaba las operaciones lógicas del algebra de Boole, AND (conjunción),OR (disyunción) y NOT (negación).
  13. 13. La Teoría de la Información Tablas de verdad.
  14. 14. La Teoría de la Información• Otra de las contribuciones de Shannon es el bit.• El bit es la unidad mínima de información empleada en la Teoría de la Información.• Con él, podemos representar dos valores cuales quiera, como por ejemplo verdadero o falso, abierto o cerrado, etc.
  15. 15. La Teoría de la Información.• Los elementos principales de la teoría de la información son cuatro:  Una fuente es cualquier cosa que emita mensajes.  El mensaje es un paquete de datos que viaja por la red en representación binaria.  El código es el conjunto de ceros y unos utilizado para representar un mensaje.  La información que es el conjunto de bits que se requieren para representar el mensaje.
  16. 16. La máquina de Turing.• El matemático árabe Al-Khwarizmi introdujo el concepto de algoritmo.• Es el matemático inglés Alan Turing (1912-1954), el que le dio la forma que conocemos actualmente.• Un algoritmo es el conjunto completo de reglas que permiten la resolución de un problema dado.
  17. 17. La máquina de Turing• Para resolver los algoritmos, Turing describió una máquina de tipo conceptual.• Su intención era precisar qué se entiende por procedimiento mecánico para resolver los problemas.
  18. 18. La máquina de Turing Estaría compuesta por: • Una banda de papel ilimitada. • Un listero que tendría la capacidad de leer, escribir o borrar diferentes símbolos.Tendría una serie de reglas que se pudiesen aplicarsecuencialmente a unos datos de entrada.
  1. A particular slide catching your eye?

    Clipping is a handy way to collect important slides you want to go back to later.

×