• Share
  • Email
  • Embed
  • Like
  • Save
  • Private Content
Ciencias de la computacion 2
 

Ciencias de la computacion 2

on

  • 571 views

 

Statistics

Views

Total Views
571
Views on SlideShare
571
Embed Views
0

Actions

Likes
0
Downloads
7
Comments
0

0 Embeds 0

No embeds

Accessibility

Categories

Upload Details

Uploaded via as Microsoft Word

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

    Ciencias de la computacion 2 Ciencias de la computacion 2 Document Transcript

    • qwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmrtyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmrtyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmrtyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmrtyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmrtyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmrtyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmrtyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmCIENCIAS DE LA COMPUTACIONLA ROBOTICA01/06/2010DIEGO MARTINEZ MARTINEZ<br /> TOC o " 1-4" h z u Que es Inteligencia artificial? PAGEREF _Toc263120516 h 3<br />Escuelas de pensamiento PAGEREF _Toc263120517 h 4<br />La inteligencia artificial convencional PAGEREF _Toc263120518 h 4<br />Inteligencia artificial computacional PAGEREF _Toc263120519 h 5<br />Historia PAGEREF _Toc263120520 h 5<br />Fundamentos y filosofía PAGEREF _Toc263120521 h 7<br />La inteligencia artificial y los sentimientos PAGEREF _Toc263120522 h 9<br />Críticas PAGEREF _Toc263120523 h 11<br />Tecnologías de apoyo PAGEREF _Toc263120524 h 12<br />Interfaces de usuario PAGEREF _Toc263120525 h 12<br />TIPOS DE INTERFACES DE USUARIO PAGEREF _Toc263120526 h 12<br />SEGUN LA FORMA DE INTERACTUAR DEL USUARIO PAGEREF _Toc263120527 h 13<br />SEGÚN SU CONSTRUCCION: PAGEREF _Toc263120528 h 13<br />FUNCIONES PRINCIPALES DE INTERFACES DE USUARIO PAGEREF _Toc263120529 h 14<br />Visión artificial PAGEREF _Toc263120530 h 14<br />MICROSCOPIA DIGITAL PAGEREF _Toc263120531 h 15<br />Producción de la imagen digital en microscopía óptica PAGEREF _Toc263120532 h 15<br />Propiedades básicas de las imágenes digitales PAGEREF _Toc263120533 h 15<br />Detectores de imagen electrónicos PAGEREF _Toc263120534 h 16<br />Fundamentos de la producción de imágenes en vídeo PAGEREF _Toc263120535 h 16<br />Introducción a los sensores de imagen CMOS PAGEREF _Toc263120536 h 17<br />CMOS PAGEREF _Toc263120537 h 17<br />CMOS analógicos PAGEREF _Toc263120538 h 18<br />CMOS y Bipolar PAGEREF _Toc263120539 h 18<br />Conceptos básicos sobre procesamiento digital de la imagen PAGEREF _Toc263120540 h 19<br />Estrategias recomendadas para el procesamiento de imágenes digitales PAGEREF _Toc263120541 h 19<br />Deconvolución en microscopía óptica PAGEREF _Toc263120542 h 19<br />Smart process management PAGEREF _Toc263120543 h 20<br />Aplicaciones de la inteligencia artificial PAGEREF _Toc263120544 h 21<br />Científicos en el campo de la inteligencia artificial PAGEREF _Toc263120545 h 21<br />Jeff Hawkins PAGEREF _Toc263120546 h 21<br />John McCarthy PAGEREF _Toc263120547 h 22<br />Marvin Minsky PAGEREF _Toc263120548 h 23<br />Judea Pearl PAGEREF _Toc263120549 h 24<br />Investigación PAGEREF _Toc263120550 h 24<br />Alan Turing PAGEREF _Toc263120551 h 25<br />Joseph Weizenbaum PAGEREF _Toc263120552 h 25<br />Raúl Rojas PAGEREF _Toc263120553 h 26<br />Ray Kurzweil PAGEREF _Toc263120554 h 27<br />Trabajos citados PAGEREF _Toc263120555 h 27<br />Bibliografía PAGEREF _Toc263120556 h 27<br />Que es Inteligencia artificial?<br />S<br />e denomina inteligencia artificial (IA) a la rama de las Ciencias de la Computación dedicada al desarrollo de agentes racionales no vivos.<br />Para explicar la definición anterior, entiéndase a un agente como cualquier cosa capaz de percibir su entorno (recibir entradas), procesar tales percepciones y actuar en su entorno (proporcionar salidas), y entiéndase a la [racionalidad] como la característica que posee una elección de ser correcta, más específicamente, de tender a maximizar un resultado esperado (este concepto de racionalidad es más general y por ello más adecuado que inteligencia para definir la naturaleza del objetivo de esta disciplina).<br />Por lo tanto, y de manera más específica la inteligencia artificial es la disciplina que se encarga de construir procesos que al ser ejecutados sobre una arquitectura física producen acciones o resultados que maximizan una medida de rendimiento determinada, basándose en la secuencia de entradas percibidas y en el conocimiento almacenado en tal arquitectura.<br />Existen distintos tipos de conocimiento y medios de representación del conocimiento. El cual puede ser cargado en el agente por su diseñador o puede ser aprendido por el mismo agente utilizando técnicas de aprendizaje.<br />También se distinguen varios tipos de procesos válidos para obtener resultados racionales, que determinan el tipo de agente inteligente. De más simples a más complejos, los cinco principales tipos de procesos son:<br />Ejecución de una respuesta predeterminada por cada entrada (análogas a actos reflejos en seres vivos).<br />Búsqueda del estado requerido en el conjunto de los estados producidos por las acciones posibles.<br />Algoritmos genéticos (análogo al proceso de evolución de las cadenas de ADN).<br />Redes neuronales artificiales (análogo al funcionamiento físico del cerebro de animales y humanos).<br />Razonamiento mediante una lógica formal (análogo al pensamiento abstracto humano).<br />También existen distintos tipos de percepciones y acciones, pueden ser obtenidas y producidas, respectivamente por sensores físicos y sensores mecánicos en máquinas, pulsos eléctricos u ópticos en computadoras, tanto como por entradas y salidas de bits de un software y su entorno software.<br />Varios ejemplos se encuentran en el área de control de sistemas, planificación automática, la habilidad de responder a diagnósticos y a consultas de los consumidores, reconocimiento de escritura, reconocimiento del habla y reconocimiento de patrones. Los sistemas de IA actualmente son parte de la rutina en campos como economía, medicina, ingeniería y la milicia, y se ha usado en gran variedad de aplicaciones de software, juegos de estrategia como ajedrez de computador y otros videojuegos.<br />Escuelas de pensamiento <br /> Se divide en dos escuelas de pensamiento:<br />La inteligencia artificial convencional<br />Inteligencia artificial convencional Se conoce también como IA simbólico-deductiva. Está basada en el análisis formal y estadístico del comportamiento humano ante diferentes problemas: Razonamiento basado en casos: Ayuda a tomar decisiones mientras se resuelven ciertos problemas concretos y aparte que son muy importantes requieren de un buen funcionamiento.Sistemas expertos: Infieren una solución a través del conocimiento previo del contexto en que se aplica y ocupa de ciertas reglas o relaciones.Redes bayesianas: Propone soluciones mediante inferencia estadística.Inteligencia artificial basada en comportamientos: que tienen autonomía y pueden auto-regularse y controlarse para mejorar.Smart process management: facilita la toma de decisiones complejas, proponiendo una solución a un determinado problema al igual que lo haría un especialista en la actividad.<br /> Inteligencia artificial computacional <br />La Inteligencia Computacional (también conocida como IA subsimbólica-inductiva) implica desarrollo o aprendizaje interactivo (por ejemplo, modificaciones interactivas de los parámetros en sistemas conexionistas). El aprendizaje se realiza basándose en datos empíricos.<br /> Historia <br />988052375989Las ideas más básicas se remontan a los griegos, antes de Cristo. Aristóteles (384-322 a. C.) fue el primero en describir un conjunto de reglas que describen una parte del funcionamiento de la mente para obtener conclusiones racionales, y Ktesibios de Alejandría (250 a. C.) construyó la primera máquina autocontrolada, un regulador del flujo de agua (racional pero sin razonamiento).<br />En 1315 Ramon Llull en su libro Ars magna tuvo la idea de que el razonamiento podía ser efectuado de manera artificial.<br />En 1936 Alan Turing diseña formalmente una Máquina universal que demuestra la viabilidad de un dispositivo físico para implementar cualquier cómputo formalmente definido.<br />En 1943 Warren McCulloch y Walter Pitts presentaron su modelo de neuronas artificiales, el cual se considera el primer trabajo del campo, aun cuando todavía no existía el término. Los primeros avances importantes comenzaron a principios de los años 1950 con el trabajo de Alan Turing, a partir de lo cual la ciencia ha pasado por diversas situaciones.<br />En 1955 Herbert Simon, Allen Newell y J.C. Shaw, desarrollan el primer lenguaje de programación orientado a la resolución de problemas, el IPL-11. Un año más tarde desarrollan el LogicTheorist, el cual era capaz de demostrar teoremas matemáticos.<br />En 1956 fue inventado el término inteligencia artificial por John McCarthy, Marvin Minsky y Claude Shannon en la Conferencia de Dartmouth, un congreso en el que se hicieron previsiones triunfalistas a diez años que jamás se cumplieron, lo que provocó el abandono casi total de las investigaciones durante quince años.<br />En 1957 Newell y Simon continúan su trabajo con el desarrollo del General Problem Solver (GPS). GPS era un sistema orientado a la resolución de problemas.<br />En 1958 John McCarthy desarrolla en el Instituto de Tecnología de Massachusetts (MIT), el LISP. Su nombre se deriva de LISt Processor. LISP fue el primer lenguaje para procesamiento simbólico.<br />En 1959 Rosenblatt introduce el Perceptrón. <br />43720919080A fines de los 50 y comienzos de la década del 60 Robert K. Lindsay desarrolla «Sad Sam», un programa para la lectura de oraciones en inglés y la inferencia de conclusiones a partir de su interpretación.<br />En 1963 Quillian desarrolla las redes semánticas como modelo de representación del conocimiento.<br />En 1964 Bertrand Raphael construye el sistema SIR (Semantic Information Retrieval) el cual era capaz de inferir conocimiento basado en información que se le suministra. Bobrow desarrolla STUDENT.<br />Posteriormente entre los años 1968-1970 Terry Winograd desarrolló el sistema SHRDLU, que permitía interrogar y dar órdenes a un robot que se movía dentro de un mundo de bloques.<br />A mediados de los años 60, aparecen los sistemas expertos, que predicen la probabilidad de una solución bajo un set de condiciones. Por ejemplo DENDRAL, iniciado en 1965 por Buchanan, Feigenbaum y Lederberg, el primer Sistema Experto, que asistía a químicos en estructuras químicas complejas euclidianas, MACSYMA, que asistía a ingenieros y científicos en la solución de ecuaciones matemáticas complejas.<br />En 1968 Minsky publica Semantic Information Processing.<br />En 1968 Seymour Papert, Danny Bobrow y Wally Feurzeig, desarrollan el lenguaje de programación LOGO.<br />En 1969 Alan Kay desarrolla el lenguaje Smalltalk en Xerox PARC y se publica en 1980.<br />En 1973 Alain Colmenauer y su equipo de investigación en la Universidad de Aix-Marseille crean PROLOG (del francés PROgrammation en LOGique) un lenguaje de programación ampliamente utilizado en IA.<br />En 1973 Shank y Abelson desarrollan los guiones, o scripts, pilares de muchas técnicas actuales en Inteligencia Artificial y la informática en general. <br />En 1974 Edward Shortliffe escribe su tesis con MYCIN, uno de los Sistemas Expertos más conocidos, que asistió a médicos en el diagnóstico y tratamiento de infecciones en la sangre.<br />En las décadas de 1970 y 1980, creció el uso de sistemas expertos, como MYCIN: R1/XCON, ABRL, PIP, PUFF, CASNET, INTERNIST/CADUCEUS, etc. Algunos permanecen hasta hoy (shells) como EMYCIN, EXPERT, OPSS.<br />En 1981 Kazuhiro Fuchi anuncia el proyecto japonés de la quinta generación de computadoras.<br />En 1986 McClelland y Rumelhart publican Parallel Distributed Processing (Redes Neuronales).<br />En 1988 se establecen los lenguajes Orientados a Objetos.<br />En 1997 Garry Kasparov, campeón mundial de ajedrez pierde ante la computadora autónoma Deep Blue.<br />En 2006 se celebró el aniversario con el Congreso en español 50 años de Inteligencia Artificial - Campus Multidisciplinar en Percepción e Inteligencia 2006.<br />En el año 2009 ya hay en desarrollo sistemas inteligentes terapéuticos que permiten detectar emociones para poder interactuar con niños autistas.<br />Existen personas que al dialogar sin saberlo con un chatbot no se percatan de hablar con un programa, de modo tal que se cumple la prueba de Turing como cuando se formuló: «Existirá Inteligencia Artificial cuando no seamos capaces de distinguir entre un ser humano y un programa de computadora en una conversación a ciegas».<br />Como anécdota, muchos de los investigadores sobre IA sostienen que «la inteligencia es un programa capaz de ser ejecutado independientemente de la máquina que lo ejecute, <br />computador o cerebro».<br />Fundamentos y filosofía <br />Como ocurre casi siempre en el caso de una ciencia recién creada, la inteligencia artificial aborda tantas cuestiones confundibles en un nivel fundamental y conceptual que, adjunto a lo científico, es necesario hacer consideraciones desde el punto de vista de la filosofía. Gran parte de esta ciencia se junta con temas en la filosofía de la mente, pero hay ciertos temas particulares a la IA. Por ejemplo:<br />¿En qué consiste la inteligencia? ¿Cómo la reconoceríamos en un objeto no humano, si la tuviera?<br />¿Qué sustancia y organización se requiere? ¿Es posible que una criatura hecha de metal, por ejemplo, posea una inteligencia comparable a la humana?<br />Aunque una criatura no orgánica pudiera solucionar problemas de la misma manera que un humano, ¿tendría o podría tener conciencia y emociones?<br />Suponiendo que podemos hacer robots con una inteligencia comparable a la nuestra, ¿debemos hacerlo?<br />Durante más de 2000 años de tradición en filosofía, han ido surgiendo diversas teorías del razonamiento y del aprendizaje, simultáneamente con el punto de vista de que la mente se reduce al funcionamiento físico. La psicología ofrece herramientas que permiten la investigación de la mente humana, así como un lenguaje científico para expresar las teorías que se van obteniendo. La lingüística ofrece teorías para la estructura y significado del lenguaje, así como la ciencia de la computación, de la que se toman las herramientas que permiten que la Inteligencia Artificial sea una realidad.<br />Empezó con el nacimiento de Platón en 428 a. C. y con lo que aprendió de Sócrates. La temática de su obra fue muy diversa: política, matemática, física, astronomía y diversas ramas de la filosofía. El filósofo Hubet Dreyfus (1979) afirma que:<br />Bien podría afirmarse que la historia de la inteligencia artificial comienza en el año 450 a.C., cuando Platón cita un diálogo en el que Sócrates le pregunta a Eutidemo: «Desearía saber cuál es la característica de la piedad que hace que una acción se pueda considerar como pía... y así la observe y me sirva de norma para juzgar tus acciones y las de otros.»Los filósofos delimitaron las más importantes ideas relacionadas con la inteligencia artificial, pero para pasar de allí a una ciencia formal era necesario contar con una formalización matemática en tres áreas principales: la computación, la lógica y la probabilidad. La idea de expresar un cálculo mediante un algoritmo formal se remonta a la época de Jwarizmi, matemático árabe del siglo IX, con cuyas obras se introdujeron en Europa los números arábigos y el álgebra (de su nombre al-Jwarizmi deriva la palabra algoritmo).<br />El hombre se ha aplicado a sí mismo el nombre científico de Homo sapiens como una valoración de la trascendencia de nuestras habilidades mentales tanto para nuestra vida cotidiana como para nuestro propio sentido de identidad. Los esfuerzos del campo de la inteligencia artificial se enfocan en lograr la compresión de entidades inteligentes. Una de las razones de su estudio es el aprender más de nosotros mismos. A diferencia de la filosofía y de la psicología, que también se ocupan de la inteligencia, los esfuerzos de la inteligencia artificial están encaminados tanto a la construcción de entidades como a su compresión. Otra razón por la cual se estudia la inteligencia artificial es debido a que ha sido posible crear sorprendentes y diversos productos de trascendencia. Nadie podría pronosticar con toda precisión lo que se podría esperar en el futuro, es evidente que las computadoras que posean una inteligencia a nivel humano tendrán repercusiones muy importantes en nuestra vida diaria así como en el devenir de la civilización.<br />El problema que aborda la inteligencia artificial es uno de los más complejos: ¿Cómo es posible que un diminuto y lento cerebro, sea biológico o electrónico, tenga capacidad de percibir, comprender, predecir y manipular un mundo que en tamaño y complejidad lo excede con creces?, pero a diferencia de la investigación en torno al desplazamiento mayor que la velocidad de la luz o de un dispositivo antigravitatorio, el investigador del campo de la inteligencia artificial cuenta con pruebas contundentes de que tal búsqueda es totalmente factible.<br />La inteligencia artificial permite al hombre emular en las máquinas el comportamiento humano, tomando como base el cerebro y su funcionamiento, de manera tal que se pueda alcanzar cierto razonamiento creando marionetas robóticas.<br />La inteligencia artificial y los sentimientos <br />El concepto de IA es aún demasiado difuso. Contextualizando, y teniendo en cuenta un punto de vista científico, podríamos englobar a esta ciencia como la encargada de imitar una persona, y no su cuerpo, sino imitar al cerebro, en todas sus funciones, existentes en el humano o inventadas sobre el desarrollo de una máquina inteligente.<br />A veces, aplicando la definición de Inteligencia Artificial, se piensa en máquinas inteligentes sin sentimientos, que «obstaculizan» encontrar la mejor solución a un problema dado. Muchos pensamos en dispositivos artificiales capaces de concluir miles de premisas a partir de otras premisas dadas, sin que ningún tipo de emoción tenga la opción de obstaculizar dicha labor.<br />En esta línea, hay que saber que ya existen sistemas inteligentes. Capaces de tomar decisiones «acertadas».<br />Aunque, por el momento, la mayoría de los investigadores en el ámbito de la Inteligencia Artificial se centran sólo en el aspecto racional, muchos de ellos consideran seriamente la posibilidad de incorporar componentes «emotivos» como indicadores de estado, a fin de aumentar la eficacia de los sistemas inteligentes.<br />Particularmente para los robots móviles, es necesario que cuenten con algo similar a las emociones con el objeto de saber –en cada instante y como mínimo– qué hacer a continuación [Pinker, 2001, p. 481].<br />Al tener «sentimientos» y, al menos potencialmente, «motivaciones», podrán actuar de acuerdo con sus «intenciones» [Mazlish, 1995, p. 318]. Así, se podría equipar a un robot con dispositivos que controlen su medio interno; por ejemplo, que «sientan hambre» al detectar que su nivel de energía está descendiendo o que «sientan miedo» cuando aquel esté demasiado bajo.<br />Esta señal podría interrumpir los procesos de alto nivel y obligar al robot a conseguir el preciado elemento [Johnson-Laird, 1993, p. 359]. Incluso se podría introducir el «dolor» o el «sufrimiento físico», a fin de evitar las torpezas de funcionamiento como, por ejemplo, introducir la mano dentro de una cadena de engranajes o saltar desde una cierta altura, lo cual le provocaría daños irreparables.<br />Esto significa que los sistemas inteligentes deben ser dotados con mecanismos de retroalimentación que les permitan tener conocimiento de estados internos, igual que sucede con los humanos que disponen de propiocepción, interocepción, nocicepción, etcétera. Esto es fundamental tanto para tomar decisiones como para conservar su propia integridad y seguridad. La retroalimentación en sistemas está particularmente desarrollada en cibernética, por ejemplo en el cambio de dirección y velocidad autónomo de un misil, utilizando como parámetro la posición en cada instante en relación al objetivo que debe alcanzar. Esto debe ser diferenciado del conocimiento que un sistema o programa computacional puede tener de sus estados internos, por ejemplo la cantidad de ciclos cumplidos en un loop o bucle en sentencias tipo do... for, o la cantidad de memoria disponible para una operación determinada.<br />A los sistemas inteligentes el no tener en cuenta elementos emocionales les permite no olvidar la meta que deben alcanzar. En los humanos el olvido de la meta o el abandonar las metas por perturbaciones emocionales es un problema que en algunos casos llega a ser incapacitante. Los sistemas inteligentes, al combinar una memoria durable, una asignación de metas o motivación, junto a la toma de decisiones y asignación de prioridades con base en estados actuales y estados meta, logran un comportamiento en extremo eficiente, especialmente ante problemas complejos y peligrosos.<br />En síntesis, lo racional y lo emocional están de tal manera interrelacionados entre sí, que se podría decir que no sólo no son aspectos contradictorios sino que son –hasta cierto punto– complementarios.<br /> Críticas <br />Las principales críticas a la inteligencia artificial tienen que ver con su incapacidad de imitar por completo a un ser humano. Estas críticas ignoran que ningún humano individual tiene capacidad para resolver todo tipo de problemas, y autores como Howard Gardner han propuesto que existen inteligencias múltiples. Un sistema de inteligencia artificial debería resolver problemas. Por lo tanto es fundamental en su diseño la delimitación de los tipos de problemas que resolverá y las estrategias y algoritmos que utilizará para encontrar la solución.<br />En los humanos la capacidad de resolver problemas tiene dos aspectos: los aspectos innatos y los aspectos aprendidos. Los aspectos innatos permiten por ejemplo almacenar y recuperar información en la memoria y los aspectos aprendidos el saber resolver un problema matemático mediante el algoritmo adecuado. Del mismo modo que un humano debe disponer de herramientas que le permitan solucionar ciertos problemas, los sistemas artificiales deben ser programados de modo tal que puedan resolver ciertos problemas.<br />Muchas personas consideran que el test de Turing ha sido superado, citando conversaciones en que al dialogar con un programa de inteligencia artificial para chat no saben que hablan con un programa. Sin embargo, esta situación no es equivalente a un test de Turing, que requiere que el participante esté sobre aviso de la posibilidad de hablar con una máquina.<br />Otros experimentos mentales como la Habitación china de John Searle han mostrado cómo una máquina podría simular pensamiento sin tener que tenerlo, pasando el test de Turing sin siquiera entender lo que hace. Esto demostraría que la máquina en realidad no está pensando, ya que actuar de acuerdo con un programa preestablecido sería suficiente. Si para Turing el hecho de engañar a un ser humano que intenta evitar que le engañen es muestra de una mente inteligente, Searle considera posible lograr dicho efecto mediante reglas definidas a priori.<br />Uno de los mayores problemas en sistemas de inteligencia artificial es la comunicación con el usuario. Este obstáculo es debido a la ambigüedad del lenguaje, y apareció ya en los inicios de los primeros sistemas operativos informáticos. La capacidad de los humanos para comunicarse entre sí implica el conocimiento del lenguaje que utiliza el interlocutor. Para que un humano pueda comunicarse con un sistema inteligente hay dos opciones: o bien el humano aprende el lenguaje del sistema como si aprendiese a hablar cualquier otro idioma distinto al nativo, o bien el sistema tiene la capacidad de interpretar el mensaje del usuario en la lengua que el usuario utiliza.<br />Un humano durante toda su vida aprende el vocabulario de su lengua nativa. Un humano interpreta los mensajes a pesar de la polisemia de las palabras utilizando el contexto para resolver ambigüedades. Sin embargo, debe conocer los distintos significados para poder interpretar, y es por esto que lenguajes especializados y técnicos son conocidos solamente por expertos en las respectivas disciplinas. Un sistema de inteligencia artificial se enfrenta con el mismo problema, la polisemia del lenguaje humano, su sintaxis poco estructurada y los dialectos entre grupos.<br />Los desarrollos en inteligencia artificial son mayores en los campos disciplinares en los que existe mayor consenso entre especialistas. Un sistema experto es más probable de ser programado en física o en medicina que en sociología o en psicología. Esto se debe al problema del consenso entre especialistas en la definición de los conceptos involucrados y en los procedimientos y técnicas a utilizar. Por ejemplo, en física hay acuerdo sobre el concepto de velocidad y cómo calcularla. Sin embargo, en psicología se discuten los conceptos, la etiología, la psicopatología y cómo proceder ante cierto diagnóstico. Esto dificulta la creación de sistemas inteligentes porque siempre habrá desacuerdo sobre lo que se esperaría que el sistema haga. A pesar de esto hay grandes avances en el diseño de sistemas expertos para el diagnóstico y toma de decisiones en el ámbito médico y psiquiátrico (Adaraga Morales, Zaccagnini Sancho, 1994).<br /> Tecnologías de apoyo <br />Interfaces de usuario<br />Las interfaces básicas de usuario son aquellas que incluyen cosas como menús, ventanas, teclado, ratón, los beeps y algunos otros sonidos que la computadora hace, en general, todos aquellos canales por los cuales se permite la comunicación entre el ser humano y la computadora. La mejor interacción humano-máquina a través de una adecuada interfaz (Interfaz de Usuario), que le brinde tanto comodidad, como eficiencia<br />TIPOS DE INTERFACES DE USUARIO<br />Dentro de las Interfaces de Usuario se puede distinguir básicamente tres tipos: A) Una interfaz de hardware, a nivel de los dispositivos utilizados para ingresar, procesar y entregar los datos: teclado, ratón y pantalla visualizadora. B) Una interfaz de software, destinada a entregar información acerca de los procesos y herramientas de control, a través de lo que el usuario observa habitualmente en la pantalla. C) Una interfaz de Software-Hardware, que establece un puente entre la maquina y las personas, permite a la maquina entender la instruccion y a el hombre entender el codigo binario traducido a informacion legible.<br />SEGUN LA FORMA DE INTERACTUAR DEL USUARIO<br />Atendiendo a como el usuario puede interactuar con una interfaz, nos encontramos con varios tipos de interfaces de usuario:<br />Interfaces alfanuméricas (intérpretes de mandatos) que solo presentan texto.<br />Interfaces gráficas de usuario (GUI, graphics user interfaces), las que permiten comunicarse con el ordenador de una forma muy rápida e intuitiva representando gráficamente los elementos de control y medida.<br />Interfaces táctiles, que representan gráficamente un " panel de control" en una pantalla sensible que permite interaccionar con el dedo de forma similar a si se accionara un control físico.<br /> SEGÚN SU CONSTRUCCION:<br />Pueden ser de hardware o de software:<br />Interfaces de hardware: Se trata de un conjunto de controles o dispositivos que permiten la interacción hombre-máquina, de modo que permiten introducir o leer datos del equipo, mediante pulsadores, reguladores e instrumentos.<br />Interfaces de software: Son programas o parte de ellos, que permiten expresar nuestros deseos al ordenador o visualizar su respuesta.<br />FUNCIONES PRINCIPALES DE INTERFACES DE USUARIO<br />Sus principales funciones son los siguientes:<br />Puesta en marcha y apagado.<br />Control de las funciones manipulables del equipo.<br />Manipulación de archivos y directorios.<br />Herramientas de desarrollo de aplicaciones.<br />Comunicación con otros sistemas.<br />Información de estado.<br />Configuración de la propia interfaz y entorno.<br />Intercambio de datos entre aplicaciones.<br />Control de acceso.<br />Sistema de ayuda interactivo.<br />Visión artificial<br />217741558420La Visión artificial, también conocida como Visión por Computador (del inglés Computer Vision) o Visión técnica, es un subcampo de la inteligencia artificial. El propósito de la visión artificial es programar un computador para que " entienda" una escena o las características de una imagen.<br />Esquema de relaciones entre visión por computadora y otras áreas afines.Los objetivos típicos de la visión artificial incluyen:<br />La detección, segmentación, localización y reconocimiento de ciertos objetos en imágenes (por ejemplo, caras humanas).<br />La evaluación de los resultados (ej.: segmentación, registro).<br />Registro de diferentes imágenes de una misma escena u objeto, i.e., hacer concordar un mismo objeto en diversas imágenes.<br />Seguimiento de un objeto en una secuencia de imágenes.<br />Mapeo de una escena para generar un modelo tridimensional de la escena; tal modelo podría ser usado por un robot para navegar por la escena.<br />Estimación de las posturas tridimensionales de humanos.<br />Búsqueda de imágenes digitales por su contenido.<br />Estos objetivos se consiguen por medio de reconocimiento de patrones, aprendizaje estadístico, geometría de proyección, procesado de imágenes, teoría de gráficos y otros campos. La visión artificial cognitiva está muy relacionada con la psicología cognitiva y la computación biológica.<br />MICROSCOPIA DIGITAL<br />Producción de la imagen digital en microscopía óptica <br />La digitalización de una imagen electrónica o de video capturada por un microscopio óptico permite obtener un incremento espectacular en las posibilidades de ampliar características, extraer información o modificar la imagen. En comparación con el mecanismo tradicional de capturación de imágenes, la fotomicrografía en película, la digitalización de la imagen y el proceso de postadquisición/recuperación permiten una modificación reversible de la imagen como matriz ordenada de enteros fundamentalmente libre de ruido más que una mera serie de variaciones análogas en color e intensidad. Esta sección trata sobre diversos temas de actualidad acerca de la adquisición y procesamiento de imágenes para microscopía óptica.<br />Propiedades básicas de las imágenes digitales <br />Las imágenes de señal continua se reproducen mediante dispositivos electrónicos analógicos que registran los datos de la imagen con precisión utilizando varios métodos, como una secuencia de fluctuaciones de la señal eléctrica o cambios en la naturaleza química de la emulsión de una película, que varían continuamente en los diferentes aspectos de la imagen. Para procesar o visualizar en el ordenador una señal continua o una imagen analógica, se debe convertir primero a un formato comprensible para el ordenador o formato digital. Este proceso se aplica a todas las imágenes, independientemente de su origen, complejidad y de si son en blanco y negro (escala de grises) o a todo color. Una imagen digital se compone de una matriz rectangular (o cuadrada) de píxeles que representan una serie de valores de intensidad ordenados en un sistema de coordenadas (x,y).<br />Detectores de imagen electrónicos <br />La gama de métodos de detección de luz y la amplia variedad de dispositivos de imagen que están disponibles actualmente para el micros copista hacen que su selección sea difícil y a menudo confusa. Con este documento se pretende ofrecer ayuda para la comprensión de conceptos básicos sobre la detección de luz y proporcionar una guía para la selección del detector electrónico adecuado ( CCD o sistema de videocámara) con aplicaciones específicas de microscopía óptica.<br />Fundamentos de la producción de imágenes en vídeo <br />Las imágenes ópticas producidas en el microscopio pueden ser capturadas utilizando bien técnicas de película tradicionales, digitalmente con detectores electrónicos como un chargecoupled device ( CCD), o con una cámara de tipo tubo. Las cámaras son a menudo el recurso más apropiado cuando se deben grabar sucesos dinámicos en tiempo real.<br />255206540640Para otros usos de este término, véase CCD (desambiguación). Sensor CCD.Un CCD (siglas en inglés de charge-coupled device: ‘dispositivo de cargas eléctricas interconectadas’) es un circuito integrado que contiene un número determinado de condensadores enlazados o acoplados. Bajo el control de un circuito interno, cada condensador puede transferir su carga eléctrica a uno o a varios de los condensadores que estén a su lado en el circuito impreso. La alternativa digital a los CCD son los dispositivos CMOS (complementary metal oxide semiconductor) utilizados en algunas cámaras digitales y en numerosas Webcam. En la actualidad los CCD son mucho más populares en aplicaciones profesionales y en cámaras digitales.<br />Los primeros dispositivos CCD fueron inventados por Willard Boyle y George Smith el 17 de octubre de 1969 en los Laboratorios Bell, ambos premiados con el Premio Nobel de Física de 2009 precisamente por este invento. <br />Introducción a los sensores de imagen CMOS <br />Los sensores de imagen CMOS se han diseñado con la capacidad de integrar un número de funciones de procesamiento y control directamente en el circuito integrado del sensor, lo que se extiende más allá de la tarea fundamental de recopilación de fotones. Estos nuevos aspectos incluyen generalmente lógica temporal, control de exposición, conversión de analógico a digital, obturación, balance de blancos, ajuste del aumento y algoritmos de procesamiento inicial de la imagen. Se están introduciendo sensores de imagen CMOS económicos en el campo de la microscopía óptica en instrumentos para fines educativos que combinan una calidad óptica aceptable con paquetes de software de control e imagen fáciles de usar.<br />CMOS<br />(del inglés complementary metal-oxide-semiconductor, " estructuras semiconductor-óxido-metal complementarias" ) es una de las familias lógicas empleadas en la fabricación de circuitos integrados (chips). Su principal característica consiste en la utilización conjunta de transistores de tipo pMOS y tipo nMOS configurados de tal forma que, en estado de reposo, el consumo de energía es únicamente el debido a las corrientes parásitas.<br />En la actualidad, la mayoría de los circuitos integrados que se fabrican utilizan la tecnología CMOS. Esto incluye microprocesadores, memorias, DSPs y muchos otros tipos de chips digitales.<br />Cuando la entrada es 1, el transistor nMOS está en estado de conducción. Al estar su fuente conectada a tierra (0), el valor 0 se propaga al drenador y por tanto a la salida de la puerta lógica. El transistor pMOS, por el contrario, está en estado de no conducciónCuando la entrada es 0, el transistor pMOS está en estado de conducción. Al estar su fuente conectada a la alimentación (1), el valor 1 se propaga al drenador y por tanto a la salida de la puerta lógica. El transistor nMOS, por el contrario, está en estado de no conducción.Otra de las características importantes de los circuitos CMOS es que son regenerativos: una señal degradada que acometa una puerta lógica CMOS se verá restaurada a su valor lógico inicial 0 o 1, siempre y cuando aún esté dentro de los márgenes de ruido que el circuito pueda tolerar.<br />CMOS analógicos <br />Los transistores MOS también se emplean en circuitos analógicos, debido a dos características importantes:<br />Alta impedancia de entrada: La puerta de un transistor MOS viene a ser un pequeño condensador, por lo que no existe corriente de polarización. Un transistor, para que pueda funcionar, necesita corriente de polarización.<br />Baja resistencia de canal: Un MOS saturado se comporta como una resistencia cuyo valor depende de la superficie del transistor. Es decir, que si se le piden corrientes reducidas, la caída de tensión en el transistor llega a ser muy reducida.<br />Estas características posibilitan la fabricación de amplificadores operacionales " Rail-to-Rail" , en los que el margen de la tensión de salida abarca desde la alimentación negativa a la positiva. También es útil en el diseño de reguladores de tensión lineales y fuentes conmutadas.<br />CMOS y Bipolar <br />Se emplean circuitos mixtos bipolar y CMOS tanto en circuitos analógicos como digitales, en un intento de aprovechar lo mejor de ambas tecnologías. En el ámbito analógico destaca la tecnología BiCMOS, que permite mantener la velocidad y precisión de los circuitos bipolares, pero con la alta impedancia de entrada y márgenes de tensión CMOS. En cuanto a las familias digitales, la idea es cortar las líneas de corriente entre alimentación y masa de un circuito bipolar, colocando transistores MOS. Esto debido a que un transistor bipolar se controla por corriente, mientras que uno MOS, por tensión.<br />Conceptos básicos sobre procesamiento digital de la imagen <br />El procesamiento digital de la imagen permite una modificación reversible de la imagen prácticamente libre de ruido en forma de una matriz de enteros en vez de las clásicas manipulaciones en el cuarto oscuro o filtración de voltajes dependientes del tiempo necesarios para las imágenes analógicas y señales de video. Incluso aunque muchos algoritmos de procesamiento de imágenes son extremadamente potentes, el usuario medio a menudo aplica operaciones a imágenes digitales sin tener en cuenta los principios subyacentes tras dichas manipulaciones. Las imágenes que resultan de una manipulación descuidada están a menudo distorsionadas con respecto a aquellas que podrían producirse si la potencia y versatilidad del software de procesamiento digital fuesen utilizados correctamente ...<br />Estrategias recomendadas para el procesamiento de imágenes digitales <br /> Dependiendo de las condiciones de iluminación, la integridad de la muestra y los métodos de preparación, las imágenes capturadas con el microscopio óptico pueden requerir una cantidad considerable de rehabilitación/reinserción/renovación para conseguirun equilibrio entre precisión científica y composición estética. Las imágenes digitales que se obtienen mediante un CCD (charge-coupled device) o un CMOS (complementary metal oxide semiconductor) a menudo sufren señales-a-ruido pobres, iluminación irregular, impurezas de enfoque, deslumbramiento, cambios en los colores y otros problemas que distorsionan la calidad global de la imagen.<br />Deconvolución en microscopía óptica <br />La deconvolución es una técnica de procesamiento de imagen computacionalmente intensiva/reforzadora que se está utilizando cada vez más para mejorar el contraste y la resolución de las imágenes digitales capturadas con el microscopio. Su fundamento se basa en un juego de métodos diseñados para eliminar las imprecisiones presentes en las imágenes producidas por la abertura limitada del objetivo. Prácticamente, cualquier imagen obtenida con un microscopio digital fluorescente se puede deconvolver y se están desarrollando varias aplicaciones nuevas que utilizan técnicas de deconvolución para imágenes transmitidas de luz compuestas mediante varias estrategias de procesamiento de contraste. Uno de los campos qué más puede beneficiarse de la deconvolución es el de montajes en tres dimensiones a partir de secciones ópticas.<br />Smart process management<br />La tecnoogía Smart Process Management se utiliza para el desarrollo de sistemas de ayuda a la toma de decisiones que son capaces de generar de modo automático procesos compuestos de las tareas necesarias para resolver problemas mediante la incorporación de conocimiento experto.<br />La tecnología Smart Process Management da soporte en la toma de decisiones del personal especialista al generar de un modo rápido procesos específicos para resolver problemas concretos. Los procesos generados por SPM incluyen un conjunto de tareas a realizar, la dependencia de orden de ejecución de las distintas tareas y los recursos asociados a cada tareas.<br />Existen otras tecnologías basadas en la gestión de procesos como Business Process Management (BPM). La diferencia principal es que en BPM los procesos son definidos de forma explícita y el sistema se encarga de automatizar su ejecución mientras que en SPM se representa cierto conocimiento experto mediante un modelado gráfico de procesos no estructurados y es el sistema el que se encarga de generar automáticamente el proceso necesario para cada ejecución.<br />Los sistemas BPM son utilizados en entornos estáticos en los que los procesos ejecutados son repetitivos y similares mientras que SPM se utiliza para automatizar la generación de procesos no estructurados de toma de decisiones por parte de expertos en los que la casuística es muy alta.<br />Un ejemplo de aplicación de SPM es para sistemas de gestión de emergencias en los que el sistema genera un proceso o plan de paliación de la emergencia diferente para cada situación.<br />Los sistemas SPM son utilizados como complementarios en sistemas de Business Intelligence (BI) ya que, gracias a ellos, el usuario no sólo puede obtner conocimiento sobre los datos e información almacenada (como hacen los sistemas BI) sino sugerencias sobre qué decisiones tomar.<br />Los motivos principales por los que se implantan sistemas software basados en tecnología Smart Process Management son los siguientes:<br />Aumento de la velocidad y la agilidad en la toma de decisiones al personal expertoAyuda en la toma de decisiones para personal no experto.Cumplimiento de protocolos, legislaciones y normasHomogenidad en la toma de decisiones dentro de las organizacionesCapitalizar el conocimiento humano y el know-howLa Workflow Management Coalition está trabaja en la definición de los lenguajes de modelado estándares para SPM y para BPM 2.0.<br />Aplicaciones de la inteligencia artificial <br />Lingüística computacional<br />Minería de datos (Data Mining)<br />Industriales.<br />Médicas<br />Mundos virtuales<br />Procesamiento de lenguaje natural (Natural Language Processing)<br />Robótica<br />Sistemas de apoyo a la decisión<br />Videojuegos<br />Prototipos informáticos<br />Análisis de sistemas dinámicos.<br />Smart process management<br />Científicos en el campo de la inteligencia artificial <br />Jeff Hawkins<br />Según Hawkins expresa en su libro Sobre la inteligencia, el cerebro funciona sobre la base de la memorización y el reconocimiento de patrones, de forma que la tarea que realiza el cerebro (o al menos la parte del cerebro denominada córtex) es la predicción, es lo que el autor llama Marco de Memoria-Predicción (memory-prediction framework). Según el autor, " El papel de cualquier región del córtex es averiguar qué relación hay entre sus entradas (inputs), memorizarla y usar esa memoria para predecir cómo se comportarán las entradas (inputs) en el futuro" .<br />Según el autor, los algoritmos empleados por el cerebro son lo suficientemente generales como para que sirvan para que se pueda reconocer, imaginar, crear y aprender: " cada paso desde la información cruda hasta la idea abstracta se basa en el mismo algoritmo. Es la única computación que sabe hacer el córtex, pero es tan versátil que puede explicar todas las increíbles propiedades de la mente" .<br />Hawkins cree que su teoría podría convertirse en la norma unificadora. Afirma que tuvo una revelación a mediados de la década de los 80 mientras caminaba hacia la puerta de su oficina en su casa de Mountain View, California. En ese preciso momento, se preguntó: ¿Qué pasaría si la puerta cambiara? ¿Por qué me daría cuenta? Y se contestó: Me daría cuenta del cambio porque mi cerebro ya predecía qué aspecto tendría la puerta. 'Los cerebros no son como las computadoras, a las cuales uno introduce símbolos, y luego sale de ellas algo diferente', dice Hawkins. 'En lo que al cerebro se refiere, todo son patrones de información'.<br />La teoría de Hawkins de una memoria que completa patrones es una variante de la memoria autoasociativa, es decir, la creencia de que la memoria se impulsa a sí misma.“<br />John McCarthy<br />3101340649605John McCarthy (n. 4 de septiembre de 1927, Boston, Massachusetts), también conocido como Tío John McCarthy, es un prominente informático que recibió el Premio Turing en 1971 por sus importantes contribuciones en el campo de la Inteligencia Artificial. De hecho, fue el responsable de introducir el término “inteligencia artificial”, concepto que acuñó en la Conferencia de Dartmouth en 1955.<br />McCarthy inventó el lenguaje de programación Lisp y publicó su diseño en Comunicaciones del ACM en 1960.<br />John McCarthy ayudó a motivar la creación del Proyecto MAC en el MIT, pero en 1962 se marchó del MIT y se fue a la Universidad de Stanford, donde se dedicó a instalar el Laboratorio de IA de Stanford, que durante muchos años fue un rival amistoso del Proyecto MAC.<br />En 1961, fue el primero en sugerir públicamente (en un discurso dado para celebrar el centenario del MIT) que la tecnología de tiempo compartido de las computadoras podría conducir a un futuro en el que el poder del cómputo e incluso aplicaciones específicas podrían ser vendidas como un servicio (como el agua o la electricidad).<br />La idea de una computadora o una utilidad informática era muy popular a fines de la década del 60, pero se desvaneció hacia mediados de los 70 cuando se volvió claro que el hardware, software y las tecnologías de telecomunicación simplemente no estaban preparadas. Sin embargo, desde el 2000, la idea ha reaparecido en diferentes formas.<br />McCarthy recibió su B.S. en Matemáticas del Instituto de Tecnología de California en 1948 y su Ph.D. en Matemáticas de la Universidad de Princeton en 1951. Tras cortas estancias en Princeton, Stanford, Dartmouth, y el MIT, pasó a ser profesor a tiempo completo en Stanford en 1962, donde permaneció hasta su retiro a finales del 2000. Ahora es Profesor Emérito.<br />Marvin Minsky<br />1524017780Tras acabar la secundaria se unió a la Marina de los Estados Unidos. Tras dos años de servicio entra en la Universidad de Princeton donde se graduaría en 1950. En la actualidad ocupa la plaza de Profesor Toshiba de los Medios de Comunicación y las Ciencias en el Instituto Tecnológico de Massachusetts (MIT).<br />Minsky ha contribuido en el desarrollo de la descripción gráfica simbólica, geometría computacional, representación del conocimiento, semántica computacional, percepción mecánica, aprendizaje simbólico y conexionista. En 1951 creó SNARC, el primer simulador de redes neuronales.<br />Escribió el libro " Perceptrones" (con Seymour Papert), que se convirtió en el trabajo fundacional en el análisis de redes neuronales artificiales. Su crítica de la investigación poco rigurosa en el campo ha sido indicada como responsable de la desaparición virtual de la investigación académica en redes neuronales artificiales durante los años 70.<br />Minsky fue consejero en la película 2001: Una odisea del espacio y hay referencias a él tanto en la película como en el libro. Durante la filmación Minsky casi murió en un accidente.[1]<br />Minsky también es responsable de sugerir la trama de " Jurassic Park" a Michael Crichton durante un paseo por la playa de Malibú. En ese punto los dinosaurios fueron concebidos como autómatas. Más tarde Crichton hizo uso de sus conocimientos en biomedicina y concibió los dinosaurios como clones.<br />Judea Pearl<br />Pearl recibió un Grado Ingeniería Eléctrica del Technion, Israel, en 1960, un Máster en Físicas de la Rutgers University, EE.UU., en 1965, y un Doctorado en Ingeniería Eléctrica del Instituto Politécnico de Brooklyn, EE.UU. en 1965. Trabajó en los Laboratorios de Investigación RCA y posteriormente se unió a la UCLA en 1970, donde actualmente es profesor en Ciencias de la Computación y Estadística y director del Laboratorio de Sistemas Cognitivos. En 2002, su hijo, Daniel Pearl fue secuestrado y asesinado en Pakistán, por lo que él y su familia crearon la Daniel Pearl Foundation [1].<br />Investigación <br />Judea Pearl fue uno de los pioneros de las Redes Bayesianas y la aproximación probabilística a la inteligencia artificial y uno de los primeros en dar un formalismo matemático al fenómeno de la causalidad en las ciencias empíricas. Su trabajo también trata a un alto nivel un modelo cognitivo. Sus intereses son la filosofía de la ciencia, representación del conocimiento, lógicas no estándares y aprendizaje automático. Pearl es descrito como " uno de los gigantes en el campo de la inteligencia artificial" por el Richard Korf [2], de la UCLA. Su trabajo en causalidad ha " revolucionado el entendimiento de este campo en estadística, psicología, medicina y en las ciencias sociales" <br />Alan Turing<br />24765597535 discípulo de John Von Neumann, diseñó el Test de Turing que debería utilizarse para comprender si una máquina lógica es inteligente o no. <br />Alan Mathison Turing (23 de junio de 1912 en Maida Vale, Londres - 7 de junio de 1954 en Wilmslow, Cheshire) fue un matemático, informático teórico, criptógrafo y filósofo inglés.<br />Es considerado uno de los padres de la Ciencia de la computación siendo el precursor de la informática moderna. Proporcionó una influyente formalización de los conceptos de algoritmo y computación: la máquina de Turing. Formuló su propia versión de la hoy ampliamente aceptada Tesis de Church-Turing, la cual postula que cualquier modelo computacional existente tiene las mismas capacidades algorítmicas, o un subconjunto, de las que tiene una máquina de Turing. Durante la Segunda Guerra Mundial, trabajó en romper los códigos nazis, particularmente los de la máquina Enigma; durante un tiempo fue el director de la sección Naval Enigma del Bletchley Park. Tras la guerra diseñó uno de los primeros computadores electrónicos programables digitales en el Laboratorio Nacional de Física del Reino Unido y poco tiempo después construyó otra de las primeras máquinas en la Universidad de Mánchester. Entre otras muchas cosas, también contribuyó de forma particular e incluso provocativa al enigma de si las máquinas pueden pensar, es decir a la Inteligencia Artificial.<br />La carrera de Turing terminó súbitamente cuando fue procesado por su homosexualidad. No se defendió de los cargos y se le dio a escoger entre la castración química o ir a la cárcel. Eligió lo primero y sufrió importantes consecuencias físicas, entre ellas la impotencia. Dos años después del juicio, en 1954, se suicidó.<br />Joseph Weizenbaum<br />2476552070Joseph Weizenbaum (8 de enero de 1923 - 5 de marzo de 2008) fue profesor emérito de Informática en el Instituto Tecnológico de Massachusetts y se le considera uno de los padres de la cibernética.<br />Nació en Berlín, Alemán de padres judíos, escapó del régimen de Hitler en 1936, emigrando con su familia a los Estados Unidos. Empezó a estudiar matemáticas en 1941, pero sus estudios fueron interrumpidos por la guerra, durante la que sirvió en el ejército.<br />Sobre los años 50, trabajó en computación analógica, y ayudó a crear un ordenador digital para la Universidad Wayne State. En 1955 trabajó para General Electric en el primer ordenador utilizado por un banco y en 1963 entró en el Instituto Tecnológico de Massachusetts, dos años después creó allí su célebre departamento de ciencias de la computación.<br />En 1966 publicó un aparentemente simple programa llamado ELIZA que utilizaba el procesamiento del lenguaje natural para dar la sensación de cierta empatía. El programa aplicaba reglas de concordancia de patrones a las frases de los humanos para calcular sus respuestas. Weizenbaum se sorprendió del impacto que este programa tuvo, al tomarse en serio por mucha gente que incluso llegaban a abrirle sus corazones. Esto le hizo pensar sobre las implicaciones filosóficas de la Inteligencia Artificial y más adelante se convirtió en uno de sus más fervientes críticos. Su influyente libro de 1976 El Poder de las Computadoras y la Razón Humana (Computer Power and Human Reason) muestra su ambivalencia en cuanto a la tecnología introducida por la informática y afirma que cuando la Inteligencia Artificial sea posible, no deberemos dejarles tomar decisiones importantes por que los ordenadores nunca tendrán cualidades humanas como la compasión y la sabiduría al no haber crecido en el entorno emocional de una familia humana.En los últimos años había sido también reconocido como un gran pacifista por su firme oposición al uso de los ordenadores y la tecnología como armas y se contrapuso firmemente a la creación de robots-soldado. En este sentido se le considera que es a la Informática lo que Albert Einstein fue a la Física Nuclear.<br />Llegó a ser el presidente del Consejo Científico del Intituto de Comercio electrónico de Berlin.Falleció el 5 de marzo de 2008 en Gröben, Alemania por complicaciones de cáncer<br />Raúl Rojas<br />Raúl Rojas (n. en 1955 en la Ciudad de Mexico), nacionalizado alemán en 1996, es un profesor de matemáticas e informática de la Universidad Libre de Berlín, en Alemania, y un reconocido experto en redes neuronales artificiales e inteligencia artificial. Los robots de fútbol FU-Fighters construidos en su equipo de investigación fueron campeones mundiales en 2004 y 2005. En este momento se dedica a un proyecto de automóvil sin piloto llamado Spirit of Berlin.<br />Ray Kurzweil<br />3691890281940<br />Raymond Kurzweil (Massachusetts, 12 de febrero de 1948) es un inventor estadounidense, además de músico, empresario, escritor y científico especializado en Ciencias de la Computación e Inteligencia Artificial.<br />Experto tecnólogo de sistemas y de Inteligencia Artificial y eminente futurista se caracteriza por ser el Cybernostradamus, porque sus predicciones tecnólógicas casi siempre son acertadas.[1] Es actualmente presidente de la empresa informática Kurzweil Technologies, que se dedica a elaborar dispositivos electrónicos de conversación máquina-humano y aplicaciones para discapacitados y es canciller e impulsor de la Universidad de la Singularidad de Silicon Valley.<br />Trabajos citados BIBLIOGRAPHY MARTINEZ, D. A. (02 de 05 de 2010). WIKISPACE. Recuperado el 1 de 05 de 2010, esta informacion fue utilizada en servicio propio para poder recopilar y mejorar todo hacerca del tema de robotica y las computadoras.<br />Bibliografía BIBLIOGRAPHY MARTINEZ, D. A. (02 de 05 de 2010). WIKISPACE. Recuperado el 1 de 05 de 2010.<br /> XE " operacion" XE " informatica" " " XE " sistema" " sistema" <br /> XE " informatica" XE " calculo"  <br />Índice<br /> XE " tecnologia" " Véase" <br /> INDEX h " A" c " 2" z " 9226" <br />A<br />artificial. artificial<br />C<br />calculo, 29<br />circuito. Véase<br />computacion, 30<br />creacion, 30<br />F<br />filosofia, 30<br />I<br />informatica, 29, <br />M<br />maquina, 30<br />N<br />numeros, 30<br />O<br />operacion, 29<br />P<br />pensamiento, 30<br />R<br />reconocimiento, 30<br />S<br />sistema. sistema<br />software. ,10<br />T<br />tecnologia. Véase<br />U<br />usuario. ,15<br /> XE " computacion" XE " reconocimiento" XE " numeros" XE " pensamiento" XE " pensamiento" XE " pensamiento" XE " filosofia" XE " maquina" XE " usuario" " ,15" XE " software" " ,10" XE " circuito" " Véase" XE " artificial" " artificial" XE " creacion" <br />