Inteligencia Artificial Y Computacional

12,779 views

Published on

Published in: Technology
0 Comments
3 Likes
Statistics
Notes
  • Be the first to comment

No Downloads
Views
Total views
12,779
On SlideShare
0
From Embeds
0
Number of Embeds
42
Actions
Shares
0
Downloads
282
Comments
0
Likes
3
Embeds 0
No embeds

No notes for slide

Inteligencia Artificial Y Computacional

  1. 1. MARIA DOVALE
  2. 2. Avances Evolución Procesos El hombre ha ido en un gran búsqueda de su propia superación, y poco a poco ha conseguido la meta que desde siempre ha sido la clave para lograr lo que actualmente tenemos en nuestras manos: UNA REALIDAD QUE SOLO ERA UN SUEÑO!!!
  3. 3. Vivimos en un mundo jamás soñado antes, pero… ¿Acaso sabemos de donde salió lo que tenemos en nuestras manos? La inteligencia artificial y computacional no es más que la rama de la electrónica que se encarga de imitar y modelar la inteligencia real y la naturaleza misma a través de algoritmos matemáticos, sistemas y procesos lógicos para llegar a sustituir el comportamiento humano lo mejor posible. Los objetos que se crean son hechos en base a la misma naturaleza, es decir, que toma como ejemplo e inspiración los mecanismos que la madre tierra incorpora a diario para realizar cualquier tarea y así poder emular las características de esta en los sistemas artificiales.
  4. 4. HISTORIA DE LA INTELIEGENCIA ARTIFICIAL El término fue inventado en 1956, en quot;la conferencia de Darmouthquot; celebrada, en Hanover (Estados Unidos), y en ella, McCarthy, Marvin Minsky, Nathaniel Rochester y Claude E. Shannon establecieron a la inteligencia artificial como un campo independiente dentro de la informática. John McCarthy a veces conocido afectuosamente como Tío John McCarthy, es un importante científico computacional, hizo importantes contribuciones en el campo de Inteligencia Artificial. De hecho, él fue el responsable de introducir el término “inteligencia artificial”, este concepto lo acuñó en la Conferencia de Dartmouth en 1956. McCarthy inventó el lenguaje de programación Lisp. Él ayudó a motivar la creación del Proyecto MAC en el MIT.
  5. 5. Alan Turing Matemático británico nació en 1912 y falleció en 1953. Diseño el primer computador electrónico digital y funcional del mundo en la década de 1940. Padre de la inteligencia artificial. Creador de la conocida maquina de Tuning, del test de Tuning y de la teoría de la computabilidad
  6. 6. 1936 - 1937 Turing publico “on computable number”, un articulo que estableció el origen de la computación. Ahí mismo describió lo que dio como nombre maquina de turing. El articulo fijo los limites de la ciencia de la computación, por que demostró que no es posible resolver problemas con ningún tipo de computador. MAQUINA DE TURING La máquina de Turing es un modelo computacional, publicado por la Sociedad Matemática de Londres, Turing construyó un modelo formal de computador, que podría efectuar teóricamente cualquier cálculo matemático, fue importante en el desarrollo de las computadoras digitales y dio como resultado que existían problemas que una máquina no podía resolver. La máquina de Turing es un modelo matemático abstracto que formaliza el concepto de algoritmo.
  7. 7. Teoría de la computabilidad La Teoría de la computabilidad es la parte de la computación que estudia los problemas de decisión que pueden ser resueltos con un algoritmo o equivalentemente con una máquina de Turing. La teoría de la computabilidad se interesa en tres preguntas: • ¿Que problemas puede resolver una máquina de Turing? • ¿Que otros formalismos equivalen a las máquinas de Turing? • ¿Que problemas requieren máquinas más poderosas?
  8. 8. 1938 - 1943 De la teoría a la practica: COLOSSUS Con la misión supersecreta de descifrar el código militar alemán, Turing crea en Gran Bretaña, con un grupo de matemáticos el COLOSSUS, una maquina de propósito especifico considerado como el primer computador digital electrónico. Desde que se completo el Colossus en 1943 hasta que termino la guerra, describió con éxito los códigos Nazis. Muchos expertos creen que Colussus fue responsable de la derrota de los Nazis.
  9. 9. 1950 - 1954 Turing entro en el campo de la Inteligencia Artificial con su articulo “Computing Machinery and Intelligence” publicado en 1950. en el propuso una prueba concreta para determinar si una maquina era inteligente o no. Años después Turing se convirtió en el pionero de quienes defendían la posibilidad de imitar el pensamiento humano a través de la computación. Siendo al autor del primer programa para jugar ajedrez. Prueba de Turing Se llama Prueba o Test de Turing al procedimiento desarrollado por Alan Turing para identificar la existencia de inteligencia en una máquina. expuesto en 1950 en un artículo “Computing machinery and intelligence”. siendo hoy en día una opción para los defensores de la Inteligencia Artificial.
  10. 10. Inteligencia Computacional es una colección de paradigmas computacionales con inspiración biológica y lingüística, en los cuales se incluye la teoría, el diseño, la aplicación y el desarrollo de redes neuronales, sistemas coneccionistas, algoritmos evolutivos, sistemas difusos y sistemas inteligentes híbridos Recientemente, se han incluidos nuevas áreas tales como: desarrollo mental autónomo, bioinformática y bioingeniería, y finanzas y economía computacional.
  11. 11. Los nuevos avances alcanzados por los investigadores indican que en un futuro no muy lejano la interacción hombre- máquina podría ser a través del lenguaje natural. Por otra parte, los primeros sistemas basados en interfaces tridimensionales ya están empezando a ser implementados, y todo parece indicar que su introducción en el mercado no está muy lejana.
  12. 12. MACHINE LEARLING OBJETIVOS: • Desarrollar técnicas que permitan a las computadoras aprender. • Crear programas capaces de generalizar comportamientos a partir de una información no estructurada suministrada en forma de ejemplos. ES: Un proceso de inducción del conocimiento.  Se centra en el estudio de la complejidad computacional de los problemas, los cuales son de clase NP –Hard. (Clase de complejidad de problemas y algoritmos) Algunos tipos de algoritmos más usados para el aprendizaje automático son: APRENDIZAJE SUPERVIZADO, APRENDIZAJE NO – SUPERVISADO, APRENDIZAJE POR REFUERZO, TRANSDUCCION, APRENDIZAJE MULTITAREA.
  13. 13. ALGUNOS TEMAS TRATADOS POR EL APRENDIZAJE AUTOMATICO SON: • Redes neuronales artificiales. • Árboles de decisión. • Regresión en procesos Gaussianos. • Análisis de discriminantes lineales. • k – vecinos mas próximos. • Perceptrón. • Funciones de base redial. • Máquinas de soporte vectorial. • Algoritmo EM. • Modelos gráficos. • Cadenas de Marcow y Método de Monte Carlo. • Métodos variacionales.
  14. 14. KNOWLEDGE ENGINEERING Ayuda a construir aplicaciones y sistemas orientados al aprendizaje, apoyándose en metodologías instruccionales, en tecnología de computación y telecomunicaciones intentando representar el conocimiento y razonamiento humanos. OBJETIVOS: •Extraer el conocimiento de expertos humanos y codificarlo de manera que pueda ser procesado por un sistema. •Analizar los métodos de aprendizaje y aplicarlos sobre computadores de manera que sea posible desarrollar un sistema capaz de aprender por si mismo.
  15. 15. FUZZY LOGIC Son proposiciones que admiten varios valores de verdad posibles y la LOGICA DIFUSA es la encargada de descifrar y cuantificar estas incertidumbres, esta nueva lógica permite representar de una forma matemática conceptos o conjuntos imprecisos, tales como el frío, calor, alto, bajo, mucho, poco. Se utiliza cuando la complejidad del proceso en cuestión es muy alta y no existen modelos matemáticos precisos para procesos altamente no – lineales y cuando se envuelven definiciones y conocimiento no estrictamente definido (impreciso o subjetivo).
  16. 16. La lógica difusa en la inteligencia artificial se utiliza para la resolución de una variedad de problemas, principalmente los relacionados con control de procesos industriales complejos y sistemas de decisión en general. Los sistemas basados en lógica difusa imitan la forma en que toman decisiones los humanos, con la ventaja de ser mucho más rápidos. Estos sistemas son generalmente robustos y tolerantes a imprecisiones y ruidos en los datos de entrada.
  17. 17. ARTIFICIAL NEURAL NETWORKS (RNA) o (ANN) Son un paradigma de aprendizaje y procesamiento automático inspirado en la forma en que funciona el sistema nervioso de los animales. Consiste en simular las propiedades observadas en los sistemas neuronales biológicos a través de modelos matemáticos recreados mediante mecanismos artificiales. OBJETIVO: Conseguir que las máquinas den respuestas similares a las de un cerebro humano y que estas se caractericen por su generalización y robustez.
  18. 18. REACTIVE SYSTEMS Los métodos estructurados son formalismos usados para especificación de sistemas en tiempo real y sistemas reactivos, estos tienen amplia difusión en la industria por ser gráficos, fáciles de aprender de utilizar y de revisar, pero al no ser métodos formales, no existe la posibilidad de analizar propiedades de seguridad las cuales son muy importantes.
  19. 19. MULTIAGENT SYSTEMS Un AGENTE es una ENTIDAD INTELIGENTE, es decir, en términos computacionales: UN PROCESO DEL SISTEMA OPERATIVO, que existen dentro de cierto contexto o ambiente y que se comunican a través de un mecanismo de comunicación inter – proceso usualmente un sistema de red utilizando protocolos de comunicación. Entonces un sistema mutiagente es un sistema distribuido en el cual los nodos o elementos son sistemas de inteligencia artificial, o bien un sistema distribuido donde la conducta combinada de dichos elementos produce un resultado en conjunto inteligente.
  20. 20. RULE BASED SYSTEMS Los sistemas basados en reglas trabajan mediante la aplicación de reglas, comparación de resultados y aplicación de las nuevas reglas basadas en situación modificada. También pueden trabajar por inferencia lógica dirigida, bien empezando con una evidencia inicial en una determinada situación y dirigiéndose hacia la obtención de una solución, o bien con hipótesis sobre las posibles soluciones y volviendo hacia atrás para encontrar una evidencia existente (o una deducción de una evidencia existente) que apoye una hipótesis en particular.
  21. 21. CASED BASED REASONING Se ocupa del estudio de los mecanismos mentales necesarios para repetir lo que se ha hecho o vivido con anterioridad, ya sea por experiencia propia o por casos concretos recopilados en la bibliografía o en la sabiduría popular. Los diversos casos son del tipo quot;Si X, entonces Yquot; con algunas adaptaciones y críticas segun las experiencias previas en el resultado de cada una de dichas reglas.
  22. 22. EXPERT SYSTEMS Son programas que se realizan haciendo explícito el conocimiento en ellos que tienen información específica de un dominio concreto y que realizan una tarea relativa a este dominio. Trabajan con inteligencia artificial simbólica, es decir, como su nombre lo indica a nivel de símbolos, como pueden ser ideas imágenes conceptos, etc. Aunque debido a su naturaleza algorítmica se usen internamente instrucciones computables y estructuras de datos como los MOPS DE SCHANK.
  23. 23. BAYESIAN NETWORKS Consta de dos componentes: CUALITATIVO Y CUANTITATIVO Es un modelo de pruebas mutivariado que relaciona un conjunto de variables aleatorias mediante un grafo dirigido el cual indica explícitamente una influencia causal. Se basa en el teorema de BAYES y es una herramienta útil en la estimación de probabilidades ante nuevas evidencias.
  24. 24. ARTIFICIAL LIFE Es el estudio de la vida y de los sistemas artificiales que exhiben propiedades similares a los seres vivos a través de modelos de simulación. Esta nueva ciencia es el punto de encuentro de otras áreas mas tradicionales como lingüística física, matemáticas, filosofía, computación, biología, antropología y sociología.
  25. 25. VIDEOGAMES Forman parte del sector audiovisual y son creados para divertir. Los videojuegos están basados en la interacción entre una persona y una computadora (ordenador). Los videojuegos recrean entornos virtuales en los cuales el jugador puede controlar a un personaje o cualquier otro elemento de dicho entorno, y así conseguir uno o varios objetivos por medio de unas reglas determinadas.
  26. 26. EVOLUCIONARY COMPUTACION Retoma conceptos de la evolución y la genética para resolver problemas de optimización. Sus raíces datan de los ALGORITMOS GENETICOS, LA PROGRAMACION EVOLUTIVA Y LAS ESTRTEGIAS EVOLUTIVAS
  27. 27. La interfaz de usuario es la forma en que los usuarios pueden comunicarse con una computadora y comprende todos los puntos de contacto entre el usuario y el equipo. Sus principales funciones son: •Manipulación de archivos y directorios •Herramientas de desarrollo de aplicaciones •Comunicación con otros sistemas. •Información de estado •Configuración de la propia interfaz y entorno •Intercambio de datos entre aplicaciones •Control de acceso •Sistema de ayuda interactivo. EXISTEN 2 TIPOS DE INTERFAZ DE USUARIO: •Alfanuméricas •Gráficas Y pueden ser de hardware o software.
  28. 28. La visión artificial también es conocida como visión por computador o visión técnica el cual es un subcampo de la inteligencia artificial, su propósito es programar un computador para que entienda una escena o las características de una imagen. Objetivos: •La detección, segmentación, localización y reconocimiento de ciertos objetos en imágenes (por ejemplo, caras humanas). •La evaluación de los resultados (ej.: segmentación, registro). •Registro de diferentes imágenes de una misma escena u objeto, hacer concordar un mismo objeto en diversas imágenes. •Seguimiento de un objeto en una secuencia de imágenes. •Mapeo de una escena para generar un modelo tridimensional de la escena; tal modelo podría ser usado por un robot para navegar por la escena. •Estimación de las posturas tridimensionales de humanos. •Búsqueda de imágenes digitales por su contenido.
  29. 29. La lingüística computacional es un campo multidisciplinar de la lingüistica y la informática que utiliza la informática para estudiar y tratar el lenguaje humano. Para lograrlo, intenta modelar de forma lógica el lenguaje natural desde un punto de vista computacional. Dicho modelado no se centra en ninguna de las áreas de la lingüística en particular, sino que es un campo interdisciplinar, en el que participan lingüistas, informáticos especializados en inteligencia artificial, psicólogos cognoscitivos y expertos en lógica, entre otros.
  30. 30. Minería de Datos o Data Mining, se encuentra dentro del conjunto de técnicas KDD (Knowledge Discovery in Databases). Se puede definir como quot;extracción no trivial de información implícita, desconocida previamente, y potencialmente útil desde los datosquot;, y consiste en el conjunto de técnicas avanzadas para la extracción de información escondida en grandes bases de datos.
  31. 31. Se trata de la simulación de mundos o entornos, denominados virtuales, en los que el hombre interacciona con la máquina en entornos artificiales semejantes a la vida real. Existen ya programas que, mediante cámaras de vídeo y software permiten construir «puertas virtuales» que enlazan un despacho u oficina con otro punto cualquiera del edificio (por ejemplo, un pasillo) y permiten a los que pasan por éste, ver y hablar con los que están en el despacho, estableciendo comunicaciones bidireccionales arbitrarias, no previstas por el arquitecto.
  32. 32. El Procesamiento de Lenguajes Naturales, (PLN, o NLP; Natural Language Processing), es una subdisciplina de la Inteligencia Artificial y la rama ingenieril de la lingüística computacional. El PLN se ocupa de la formulación e investigación de mecanismos eficaces computacionalmente para la comunicación entre personas o entre personas y máquinas por medio de lenguajes naturales.
  33. 33. La robótica es una ciencia o rama de la tecnología, que estudia el diseño y construcción de máquinas capaces de desempeñar tareas realizadas por el ser humano o que requieren del uso de inteligencia. Las ciencias y tecnologías de las que deriva podrían ser: el álgebra, los autómata programables, las máquinas de estados, la mecánica o la informática. Tres Leyes de la Robótica son: •Un robot no puede actuar contra un ser humano o, mediante la inacción, que un ser humano sufra daños. •Un robot debe de obedecer las ordenes dadas por los seres humanos, salvo que estén en conflictos con la primera ley. •Un robot debe proteger su propia existencia, a no ser que esté en conflicto con las dos primeras leyes.
  34. 34. Los sistemas de apoyo a la decisión (DSS) son sistemas de tipo OLAP o de minería de datos que proporcionan información y soporte para tomar decisiones.

×