• Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Be the first to comment
    Be the first to like this
No Downloads

Views

Total Views
1,210
On Slideshare
0
From Embeds
0
Number of Embeds
0

Actions

Shares
Downloads
47
Comments
0
Likes
0

Embeds 0

No embeds

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
    No notes for slide

Transcript

  • 1. Universidad Autónoma de Coahuila.Ingeniero en Sistemas Computacionales.Materia: Metodología de la Investigación.Tema: Redes Neuronales Artificiales (RNA)Profesor: M.A. Juan Carlos López Sarmiento.Alumno: Cecilio Andreu Moctezuma. 22 de Octubre 2010 1
  • 2. INDICE GENERAL. 1. ¿Por qué esta investigación?.......................................................................3 2. El objetivo de esta investigación…………………………………..…….…….3 3. Introducción……………………………………………………….………..……4 4. Inspiración biológica……………………………………………….……..……..7 5. Definición de redes neuronales artificiales (RNA)…………….……………..7 6. Sistema neuronal biológico……………………………………….…...……….8 7. Sistema neuronal artificial…………………………………………....……….11 8. Niveles o capas de neuronas…………………………..……….…………....12 9. Evolución histórica………………………………………..……….………..…13 10. Campo de aplicación…………………………………………..……..……..…16 11. ¿Cómo se construyen las Redes Neuronales?..........................................17 12. Elemento básico. De la (RNA)…….……………………………..…….…..…17 13. Tipo de información que manejan (RNA)…………………………...………18 14. Los elementos que constituyen la neurona son……………….…..……….19 15. Peso sinóptico…………………………………………………….……………20 16. El aprendizaje de las redes neuronales……………………….….…………21 17. Ejemplo…………………………………………………………….……………22 18. Conclusión……………………………………………………….….………….30 19. Bibliografías……………………………………………………….……………31 2
  • 3. ¿Por que de esta investigación?Mi investigación es sobre redes neuronales, ya que en la actualidad se utilizan enlas empresas, hospitales, problemas matemáticos, etc. Porque se les puedeagregar una gran cantidad de datos y son mas rápidas en procesar la informaciónque el cerebro humano y tiene un margen de error muy mínimo o ninguno.Actualmente son la punta de la tecnología por su gran procesamiento deinformación. Hoy en día existen una gran cantidad de sistemas de softwarecomerciales que se basan en los análisis de datos para hacer tareas como:análisis financieros, vigilancia, economía.Los biólogos y los ingenieros de software, los de robótica han tenido que unirsepara poder llevar acabo este tipo de redes aportando cada uno parte de susconocimientos para hacer mas rápido una tarea especifica y compleja.El objetivo de esta investigación es: darnos cuenta has donde a llegado el serhumano con la ayuda de la tecnología y como a ido evolucionando que,actualmente hay máquinas inteligentes y con la apariencia de un ser humano. Ycomo se han inspirado en el cerebro los ingenieros para poder realizar este tipo deinvestigaciones y poder llevarlas a la tecnología.  Conocer la inspiración biológica de las Redes Neuronales Artificiales (RNA) y sus fundamentos.  Entender el funcionamiento de los modelos de las RNA.  Identificar en donde se pueden aplicar los modelos de RNA. 3
  • 4. Introducción.Muchos de los desarrollos del hombre se deben a su capacidad para explicar yemular funciones que son realizadas por seres vivos.Por ejemplo, se puede citar el radar, que surge como imitación de la forma comoun murciélago es capaz de detectar los objetos que están en su camino sinnecesidad de verlos, por medio de emisión de una onda ultrasónica, la posteriorrecepción de la señal de eco y su procesamiento. Así como el anterior hay muchosejemplos más: El helicóptero, el avión, el submarino. Existen dos tipos de visión nocturna: por aumento de luz y por visión térmica, ambas técnicas son utilizadas por los animales. La retina de un animal (la parte de atrás del ojo donde se forma la imagen) está compuesto mayormente por dos tipos de células sensibles a la luz llamadas bastones y conos. Los bastones son responsables para potenciar los estímulos lumínicos pequeños 4
  • 5. Radares y murciélagosAmbos, el radar y el murciélago utilizanel mismo principio: el eco. Las ondasreflejadas por los objetos sonpercibidas por los oídos del murciélagoy, en el otro caso, por una antena deradar que las transforma eninformación.El avión y las avesEl principio que utilizan los aviones esbásicamente el mismo que utilizan lasaves, es la forma del ala y su posiciónrelativa con respecto a la corriente deaire lo que produce la fuerza desustentación.El submarino y el nautilosLos submarinos poseen "tanques deinmersión" ubicados a ambas bandaslos que, una vez inundados, le dan alsubmarino una flotabilidad apenaspositiva. Posee otro tanque, ubicado enel centro, relativamente chico, que alser totalmente inundado le da al buqueflotabilidad negativa para ir a inmersión 5
  • 6. El camarón mantis y los aparatos de DVD. El ojo del camarón mantis puede convertir luz de todos los colores del espectro visible. Las investigaciones apuntan a que, tomando como modelo el ojo de este camarón, los ingenieros podrían fabricar un aparato de DVD que reprodujera discos con mucha más información que los actuales.Aunque el hombre ha sido capaz de emular funciones de los animales, para élsiempre ha sido un sueño poder conocer e imitar, la llamada por muchos lamáquina perfecta: el cerebro humano. Cuando la neurociencia pudo explicar deforma un poco convincente el funcionamiento de la unidad principal deprocesamiento de información que posee el cerebro, la neurona, surge casi demanera automática la idea de poder emular dicho funcionamiento en un elementoartificial "La neurona artificial." 6
  • 7. Inspiración biológica.El cerebro humano. • Trata gran cantidad de información. • Capacidad de tratar situaciones nuevas. • Capacidad de aprendizaje • Almacenamiento distribuido. • No binario, no estable y no secuencial. • Poder desconocido • 1011 Neuronas (procesadores) • 1000 – 10000 conexiones por neurona. • Capacidad basada en las conexiones. • Cada neurona es muy compleja. Definición de redes neuronales artificiales (RNA).Las Redes Neuronales Artificiales (RNA) o sistemas conexionistas son sistemasde procesamiento de la información cuya estructura y funcionamiento estáninspirados en las redes neuronales biológicas. Consisten en un conjunto deelementos simples de procesamiento llamados nodos o neuronas conectadasentre sí por conexiones que tienen un valor numérico modificable llamado peso. 7
  • 8. Los tres conceptos claves de los sistemas biológicos, que se pretenden emular enlos artificiales son: • Paralelismo de cálculo. • Memoria distribuida. • Adaptabilidad al entorno.Las redes neuronales artificiales (RNAs) son modelos computacionales quesurgieron como un intento de conseguir formalizaciones matemáticas acerca de laestructura del cerebro. Las RNAs imitan la estructura del hardware del sistemanervioso, centrándose en el funcionamiento del cerebro humano, basado en elaprendizaje a través de la experiencia, con la consiguiente extracción deconocimiento a partir de la misma.Sistema neuronal biológico:Los elementos básicos de un sistema neuronal biológico son las neuronas,agrupadas en redes compuestas por millones de ellas y organizadas a través deuna estructura de capas, que constituyen un sistema con funcionalidad propia. 8
  • 9. En general una neurona consta de un cuerpo celular más o menos esférico de 5 a10 micras de diámetro, del que sale una rama principal el axón, y varias ramasmás cortas denominadas dendritas.Neurona. • Pueden presentar muchas formas, aunque presentan un aspecto similar. • Cuerpo celular o soma (10 – 80 micras). • Dendritas de entradas • Un axón de salida • Sinapsis de conexión. 9
  • 10. En la tabla 1 se muestra un paralelo entre un computador secuencial (Computadorde Von Neumann) y un sistema biológico Característica Computador secuencial Sistema biológico neuronalUnidad de Compleja, Veloz, Única Simple, Lenta, MuchasProcesamientoMemoria Separada del procesador, Integrada dentro del Localizada procesador, Distribuida, Direccionable por contenidoProcesamiento de Centralizado, Secuencial, Distribuido ,Paralelo, Autolos Datos Programas almacenados aprendizajeConfiabilidad Muy vulnerable RobustoEspecialización Manipulaciones simbólicas y Problemas perceptuales numéricasAmbiente de Bien definido, Muy restringido Pobremente definido, Sinoperación restriccionesEn la tabla 2 se muestra la velocidad de procesamiento de información del cerebroy la computadora. 10
  • 11. Sistema neuronal artificial:En un sistema neuronal artificial puede establecerse una estructura jerárquicasimilar, de forma RNA puede concebirse como una colección de procesadoreselementales (neuronas artificiales), conectados a otras neuronas o bien a entradasexternas y con una salida que permite propagar las señales por múltiples caminos.El elemento esencial de partida es la neurona artificial, que se organiza en capas;varias capas constituyen una red neuronal; y, por ultimo, una red neuronal (o unconjunto de ellas), junto con las interfaces de entrada y salida constituirán elsistema neuronal. 11
  • 12. Niveles o capas de neuronas.La distribución de neuronas dentro de una red se realiza formando niveles o capasde un número de neuronas determinado, donde se conoce como capa o nivel a unconjunto de neuronas cuyas entradas provienen de la misma fuente (que puedeser otra capa de neuronas) y cuyas salidas se dirigen al mismo destino (que puedeser otra capa de neuronas).Se pueden distinguir tres tipos de capas: 1. Capa de Entrada. Es la capa que recibe directamente la información proveniente de las fuentes externas de la red 2. Capa Oculta. Son internas a la red y no tiene contacto directo con el exterior. El número de niveles ocultos puede estar entre cero y un número elevado. Las neuronas de la capa oculta pueden estar interconectadas de diferentes maneras, lo que determina, junto con su número, las distintas tipologías de redes neuronales. 3. Capa de Salida. Transfieren información de la red hacia el exterior. 12
  • 13. Evolución históricaLos primeros análisis acerca del comportamiento del cerebro y el pensamiento sedeben a filósofos griegos, destacando las aportaciones realizadas por Aristóteles(384 – 422 A.C).y Platón (427 – 347 A.C), continuadas en la Edad Media porDescartes (1596 – 1650) y por los filósofos empiristas del siglo XVII.En 1936, Alan Turing fue el primero en estudiar el cerebro desde el punto de vistacomputacional, si bien los trabajos pioneros para la construcción de modelosmatemáticos que imitasen el comportamiento de las neuronas biológicas se debena Warren McCulloch y Walter Pitts (neurofisiólogo y matemático, respectivamente),que presentaron en 1943 uno de los primeros modelos abstractos de una neuronaartificial. 13
  • 14. La historia de las redes neuronales puede dividirse en varios periodos:1. Primeros intentos: Se realizaron algunas simulaciones usando lógica formal.McCulloch and Pitts (1943) desarrollaron modelos de redes neuronales basadosen su conocimiento de neurología. Sus redes se basaban en neuronas simples,consideradas como dispositivos binarios con umbrales fijos. Los resultados de susmodelos fueron funciones lógicas elementales tales como "a o b" y "a y b". Dosgrupos (Farley and Clark, 1954; Rochester, Holland, Haibit and Duda, 1956) lointentaron usando simulaciones computacionales. El primer grupo conformado porinvestigadores de IBM mantenía un contacto cercano con neurocientíficos de launiversidad de McGill.2. Tecnología emergente y promisoria: No solo la neurociencia influía en eldesarrollo de las redes neuronales, también los físicos y los ingenieros contribuíanal progreso de las simulaciones de redes neuronales. Rosenblatt (1958) revitalizófuertemente el interés y la actividad en esta área cuando diseñó y desarrollo suPerceptrón. El Perceptrón tiene tres capas, incluida la capa del medio denominadade asociación. Este sistema pudo aprender a conectar y asociar unas entradasdadas a una unidad de salida aleatoria. Otro sistema fue el ADALINE (ADAptiveLInear Element) el cual fue desarrollado en 1960 por Widrow and Hoff (de laUniversidad de Stanford). El ADALINE fue un dispositivo electrónico analógicohecho de componentes simples, con un método de aprendizaje diferente al delPerceptron, empleando una regla de aprendizaje basada en mínimos cuadrados(LMS).3. Periodo de frustración y desprestigio: En 1969 Minsky and Papertescribieron un libro en cual ellos generalizaban las limitaciones de un Perceptronmonocapa a sistemas multicapa. En el libro ellos decían: "...nuestro intuitivo juicioes que la extensión (a sistemas multicapa) es una tarea estéril". El resultado de lasafirmaciones de este libro fue eliminar la financiación para los investigadores quetrabajaban con simulaciones de redes neuronales. Las conclusiones del libro de 14
  • 15. Minsky and Papert soportadas con el desencanto de los investigadores en el área,trajo como resultado un gran prejuicio contra la actividad de la misma.4. Innovación: Aunque el interés público por las redes neuronales era mínimo,varios investigadores continuaron trabajando en el desarrollo de métodoscomputacionales basados en neuromorfología para problemas de identificación depatrones. Durante este periodo varios paradigmas fueron generados, los cualesaun continúan con trabajos modernos, se puede mencionar a: Steve Grossbergand Gail Carpenter quienes desarrollaron la teoría de la resonancia adaptativa,ART (Adaptive Resonance Theory), Anderson y Kohonen (1982) quienesdesarrollaron técnicas para aprendizaje asociativo. Hopfield (1984) quiendesarrolló una red neuronal haciendo un símil energético. Werbos (Paul Werbos1982) desarrolló y usó el método de aprendizaje conocido como Backpropagation,destacando que varios años después de popularizarse este método, esactualmente la arquitectura de red neuronal mejor conocida y más utilizada en lasaplicaciones de redes neuronales. En esencia una red Back-propagation es unPerceptron con múltiples capas, con diferentes funciones de activación en lasneuronas artificiales y con una regla de aprendizaje más robusta y confiable.5. Resurgimiento: Durante el final de la década de los 70s y principios de los 80s,fue importante el resurgimiento del interés en el campo de las redes neuronales.Varios factores han influenciado este movimiento, tales como la aparición de librosy conferencias que han dado a conocer las bondades de esta técnica a personasde diferentes áreas.El financiamiento a proyectos de investigación en redes neuronales en Europa,EUA y Japón que han hecho que aparezcan una gran variedad de aplicacionescomerciales e industriales. 15
  • 16. 6. Hoy: Se han realizado progresos muy significativos en el campo de las RNA, losuficientes como para atraer una gran atención e interés en financiarinvestigaciones. Ya se encuentran comercialmente circuitos integrados basadosen RNAs y las aplicaciones desarrolladas resuelven problemas cada vez máscomplejos. Sin lugar a dudas, hoy es un periodo de transición y fuerte evoluciónpara la tecnología en redes neuronales.Campo de aplicación.Las Redes neuronales artificiales son interesantes para una gran cantidad depersonas de diferentes áreas:  Científicos de la computación que quieren averiguar sobre las propiedades del procesamiento de información no-simbólica con una red neuronal y sobre sistemas de aprendizaje en general.  Estadísticos utilizan redes neuronales como modelos de clasificación y regresión no lineal flexible  Ingenieros de varias especialidades se aprovechan de las capacidades de redes neuronales en muchas áreas, como procesamiento de señales y control automático  Los científicos cognoscitivos ven redes nerviosas como un posible aparato para describir modelos de pensamiento y conciencia (función cerebral de alto-nivel).  Neuro-fisiólogos utilizan redes neuronales para describir y explorar funciones cerebrales de medio-nivel (memoria del ej., sistema sensorial y motriz).  Físicos usan redes neuronales para modelar fenómenos en mecánica estadística y para muchas otras tareas.  Biólogos utilizan Redes Neuronales para interpretar sucesiones del nucleótido. 16
  • 17.  Filósofos y otras personas también pueden ser interesadas en Redes Nerviosas por las varias razones.Las RNA con su capacidad para deducir un significado desde datos complicados oimprecisos, pueden ser utilizadas para detectar patrones o detectar una tendenciaque es muy compleja de hallar por una persona con modelos determísticos o porotras técnicas computacionales tradicionales.Una red entrenada puede ser vista como un experto en el manejo de lainformación que se le ha dado para analizar. Este experto puede ser utilizado paraproporcionar proyecciones ante nuevas situaciones de interés.¿Cómo se construyen las Redes Neuronales?Se pueden realizar de varias maneras. Por ejemplo en hardware utilizandotransistores o amplificadores operacionales, pero la mayoría de las RNA seconstruyen en software, esto es en programas de computación.Elemento básico de la (RNA).Una neurona artificial es un elemento con entradas, salida y memoria que puedeser realizada mediante software o hardware. Posee entradas (I) que sonponderadas (w), sumadas y comparadas con un umbral (t).La señal computada de esa manera, es tomada como argumento para una funciónno lineal (f), la cual determinará el tipo de neurona y en parte el tipo de redneuronal 17
  • 18. Tipo de información que manejan (RNA).Las redes neuronales manejan dos tipos de información.La primera, es la información volátil, que se refiere a los datos que se estánusando y varían con la dinámica de la computación de la red, se encuentraalmacenada en el estado dinámico de las neuronasEl segundo tipo de información que manejan las redes neuronales, es lainformación no volátil que se mantiene para recordar los patrones aprendidos y seencuentra almacenada en los pesos sinápticos. 18
  • 19. Sinápticos: la conexión entre el axón de una neurona y las dendritas de otrarecibe el nombre de sinapsis o synapsis, y determina la fuerza y tipo de relaciónentre ellas.Las conexiones sinápticas son las vías o caminos de comunicación entre losdiferentes elementos de procesos (neuronas) y entre éstos y las entradas/salidasdel sistema.Los elementos que constituyen la neurona son: • Conjunto de entradas, Xj(t). • Pesos sinápticos de la neurona i. Wij representa la intensidad de interacción entre cada neurona pre sináptica j y la neurona post sináptica i. • Regla de propagación g(Wij, Xj(t)). Proporciona el valor del potencial post sináptico hi(t) = g(Wij, Xj(t)) de la neurona i en función de sus pesos y entradas. 19
  • 20. • Función de activación fi(ai(t-1), hi(t)), que proporciona el estado de activación actual ai(t) =fi(ai(t-1), hi(t)) de la neurona i, en función de su estado anterior ai(t-1) y de su potencial post sináptico actual.• Función de salida Fi(ai(t)), que proporciona la salida actual yi(t) = Fi(ai(t)) de laneurona i en función de su estado de activación.De este modo, la operación de la neurona i puede expresarse como:yi(t) = Fi(fi[ai(t-1), g(Wij, Xj(t))])Interacción entre una neurona pre sináptica y una post sináptica:Peso sinápticoSi el peso es positivo tendera a excitar a la neurona post sináptica, si el peso esnegativo tenderá a inhibirla. Así se habla de sinapsis excitadora e inhibidora en lasredes neuronales artificiales. 20
  • 21. El aprendizaje de las redes neuronales.Es el proceso de presentar los patrones a aprender, a la red y el cambio de lospesos de las conexiones sinápticas usando una regla de aprendizaje.La regla de aprendizaje consiste en algoritmos basados en formulas matemáticas,que usando técnicas como minimización del error o la optimización de alguna"función de energía", modifican el valor de los pesos sinápticos en función de lasentradas disponibles y con ello optimizan la respuesta de la red a las salidas quedeseamos.El aprendizaje se basa en el entrenamiento de la red con patrones, queusualmente son llamados patrones de muestra o entrenamiento. El proceso usualdel algoritmo es que la red ejecuta los patrones iterativamente, cambiando lospesos de las sinapsis, hasta que convergen a un conjunto de pesos óptimos querepresentan a los patrones lo suficientemente bien, entonces mostrará unarespuesta satisfactoria para esos patrones. Esto es, sus pesos sinápticos seajustan para dar respuestas correctas al conjunto de patrones de entrenamientoque le hemos mostrado.Podemos distinguir tres tipos de aprendizaje.El modo más intuitivo es el Aprendizaje supervisado, que consiste en que lared dispone de los patrones de entrada y los patrones de salida que deseamospara esa entrada y en función de ellos se modifican los pesos de las sinapsis paraajustar la entrada a esa salida.Otro modo de aprendizaje, Aprendizaje no supervisado, consiste en nopresentar patrones objetivos, si no solo patrones de entrada, y dejar a la redclasificar dichos patrones en función de las características comunes de lospatrones. 21
  • 22. Existe otro tipo de aprendizaje, que usa una formula híbrida, el supervisor noenseña patrones objetivos si no que solo le dice se acierta o falla en su respuestaante un patrón de entrada. Es el aprendizaje reforzado,Ejemplo:ResumenEste trabajo tuvo como objetivo predecir las manifestaciones macroscópicas de losdos principales fenómenos de transferencia de masa en tres frutas (melón,lechosa y manzana) osmóticamente deshidratadas.Se consideró el efecto de cinco variables de proceso: tipo de alimento,concentración de la solución osmótica, tamaño de la fruta, temperatura y tiempode proceso, sobre la pérdida de agua y ganancia de sólidos de las frutas. Para ellose desarrolló un modelo neuronal artificial compuesto por cinco neuronas deentrada y dos capas ocultas de procesamiento de información compuestas porcinco neuronas cada una, utilizando funciones sigmoides como medio decomunicación, y dos neuronas de salida representando a las variablesdependientes del modelo. La arquitectura neuronal desarrollada y entrenadamediante el algoritmo Levenberg-Marquardt permitió predecir más de los 90% dela variabilidad de los datos en los dos fenómenos de transferencia estudiados,constituyéndose en un modelo alternativo a las ecuaciones para métricasdesarrolladas hasta el momento.IntroducciónLa deshidratación osmótica es una tecnología que ha sido aplicada principalmenteen frutas, con el objeto de reducir la actividad de agua y el contenido de humedadde las mismas, para así generar alimentos de humedad intermedia con una 22
  • 23. estabilidad relativamente limitada, por lo cual, el proceso osmótico es usualmentecombinado con otra técnica de preservación que permita extender la vida útil delalimento.Generalmente, el proceso se desarrolla mediante la inmersión de trozos de frutaen soluciones de sacarosa, mediante el control de variables como temperatura,agitación y tiempo de proceso. En el curso de la tecnología se suscitan tresfenómenos de transferencia de masa: la migración de agua desde la fruta hacia lasolución de impregnación, la transferencia de solutos de la solución a la fruta y lasalida de solutos propios del alimento a la solución.El tercer fenómeno de transferencia resulta cuantitativamente despreciable encomparación con los dos primeros, los cuales caracterizan el proceso y permitenel logro de los objetivos ulteriores de la tecnología: la estabilidad del alimentomediante el control de su contenido de humedad y la actividad de agua, y laposibilidad de aplicación de efectos de formulación específicos mediantecomponentes específicos.En tal sentido, el objetivo de la presente investigación es desarrollar un modelo dered neuronal artificial basado en un algoritmo de retro propagación del error, parael modelado predictivo de los fenómenos de pérdida de agua y ganancia desólidos en frutas osmóticamente deshidratadas. 23
  • 24. Materiales y MétodosProceso de deshidratación osmóticaLas frutas usadas en la investigación, lechosa, melón y manzana, seleccionadasen virtud de su naturaleza porosa y por ende facilitadora de los fenómenos detransferencia de masa, se obtuvieron de un mismo establecimiento comercial, sinlesiones externas y con características similares de forma, tamaño y color. Sedeterminó el contenido de humedad inicial de las frutas, de acuerdo a lametodología de la AOAC (AOAC, 1990), obteniéndose los siguientes resultados:lechosa 88,93% ± 0,71% (n=5), melón 93,07% ± 0,85% (n=5) y manzana 87,32%±0,82% (n=5). Una vez lavadas, las frutas fueron picadas en cubos mediante lautilización de un vernier y un cuchillo previamente desinfectado. Es importanteseñalar que las frutas, con características similares de madurez (de acuerdo a larelación ºBrix / pH), fueron asignadas aleatoriamente a cada condiciónexperimental (1 fruta o individuo por tratamiento) y se obtuvieron 10 unidadesexperimentales (cubos) de cada fruta para conformar una réplica de cada i-ésimotratamiento (Tabla I). La obtención de cubos de geometría regular concaracterísticas finitas, permitió reducir la dimensión característica de las frutas yminimizar los tiempos de impregnación empleados. Una vez cortadas y registradoel peso inicial de las muestras de frutas, las mismas se sumergieron en lassoluciones de impregnación (soluciones de sacarosa), para cada una de lascondiciones experimentales (Tabla I). Para satisfacer cada una de las condicionesde temperatura, las soluciones fueron colocadas en baños de agua y tapadas paraevitar la evaporación de las soluciones. Al finalizar el tiempo de proceso, los trozosde fruta fueron cuidadosamente secados con papel absorbente para remover elexceso de solución osmótica de la superficie y su peso se registróinmediatamente. Posteriormente, las muestras se secaron en un horno deconvección a 60ºC por 16h., y posteriormente en una estufa al vacío a 70ºC por24h., para determinar la masa seca de las frutas osmóticamente tratadas y 24
  • 25. calcular por balance de masa el contenido de humedad de las mismas(Panagiotou et al., 1998). Cada condición experimental se realizó por duplicado.Con la primera réplica se entrenó la arquitectura neuronal artificial y con lasegunda, constituida a partir de muestras de frutas totalmente independientes delas utilizadas para la primera réplica, se validó la habilidad predictiva y degeneralización del modelo (Millán et al., 2001).Como se señaló en la introducción, los dos principales fenómenos de transferenciade masa que se suscitan en la deshidratación osmótica, se evidencianmacroscópicamente mediante la pérdida de agua (PA) y la ganancia de sólidos(GS), las cuales pueden ser definidas por las ecuaciones. 25
  • 26. Donde M0: masa inicial de fruta antes de ser sometida al tratamiento osmótico, M:masa de fruta luego del tratamiento osmótico, m0: masa seca inicial de la muestrade fruta, y m: masa seca de la fruta luego del tratamiento osmótico.Desarrollo del modelo neuronal artificialSe desarrolló una estructura neuronal de retro propagación del error con 5neuronas de entrada, constituidas por las variables tipo de alimento (melón,lechosa y manzana), concentración de la solución de impregnación, tamaño de lamuestra de fruta, temperatura y tiempo de proceso, y dos neuronas de salida,representativas de la pérdida de agua y ganancia de sólidos, comomanifestaciones macroscópicas de la transferencia de agua desde la fruta hacia lasolución de impregnación y la transferencia de solutos desde la solución deimpregnación hacia la fruta, respectivamente. Los valores de entrada a las i-ésimas neuronas de entrada estuvieron constituidos por los valores queconforman las variables independientes mencionadas (Tabla I). A estos valores seasoció aleatoriamente un peso de conexión de poca magnitud, que permitió lapropagación de la información a la primera capa de neuronas ocultas deprocesamiento de datos. La asignación aleatoria de los pesos de inicio de pocamagnitud es la técnica normalmente usada cuando no se dispone de informaciónprevia acerca del sistema que se está modelando, ya que impide la temprana 26
  • 27. saturación de la red por cuanto induce a la ruptura de simetría. Así, la entrada netade la j-ésima neurona de la capa oculta puede representarse a través de laecuaciónDonde xpi: entrada que recibe la neurona procedente de la i-ésima unidad deentrada, wjih: peso de la conexión y jh: término de tendencia. El índice h serefiere a magnitudes de la capa oculta y el subíndice p al p-ésimo vector deentrenamiento. El establecimiento del número de capas ocultas y el número deneuronas que conforman dichas capas se seleccionó mediante un proceso deensayo y errorLuego, la salida de las j-ésimas neuronas de la capa oculta se transfirió a lasneuronas de la capa de salida mediante una función de transferencia fjh. Dichasalida se representa por la ecuaciónDonde ypj: salida neta de cada j-ésima neurona de la capa oculta, y netpjh:entrada neta a la j-ésima neurona de la capa oculta. La función de transferenciamás empleada en las redes de retro propagación del error es la tangentehiperbólica (Reed y Marks, 1999).Luego, la entrada neta a la capa de neuronas de salida, representadas por elnúmero de variables dependientes del sistema, en este caso la pérdida de agua yla ganancia de sólidos de las frutas osmóticamente deshidratadas, se representamediante la ecuación 27
  • 28. Donde el índice 0 se refiere a magnitudes de la capa de salida, ypj: entradaprocedente de la j-ésima neurona oculta, wkj0: peso de conexión entre la j-ésimaunidad oculta y la k-ésima neurona de salida, k0: término de tendencia asociadoa la k-ésima neurona de salida, y netpk: entrada neta a la k-ésima neurona desalida. Finalmente, la salida de las neuronas de salida se comparó con un vectorobjetivo constituido por los valores experimentales de pérdida de agua y gananciade sólidos y se generó la siguiente función de error, constituida por la suma deerrores cuadráticos (Reed y Marks, 1999):Donde ESSE: suma de cuadrados del error, p: vector de entrenamiento o conjuntode datos experimentales, i: salida emitida por las neuronas de salida de la red, ytpi y ypi representan el objetivo o conjunto de valores observados y la salida de lared, respectivamente.El proceso de entrenamiento y aprendizaje de la red se basó entonces en lareducción de la función de error anterior, a través de un proceso iterativo deactualización de pesos de conexión y términos de tendencia que se representaesquemáticamente en la Figura 1. 28
  • 29. La arquitectura neuronal, así como el proceso de entrenamiento, aprendizaje yposterior simulación de la red, se desarrollaron con el módulo de redes delprograma Matlab 6.0. 29
  • 30. Conclusión.Los computadores digitales actuales superan al hombre en su capacidad decálculo numérico y el manejo de símbolos relacionales. Sin embargo, el hombrepuede solucionar problemas mucho más complejos de percepción (por ejemplo,reconocer a un amigo entre un tumulto desde un simple vistazo de su cara o alescuchar su voz, incluso por el modo de caminar; definir la habitabilidad de unaula a partir de sensaciones de temperatura, ruido, humedad, iluminación, etc.) amuy altas velocidades y sin necesidad de concebir un complejo modelomatemático o computacional.La respuesta está en la arquitectura del sistema neuronal biológico que escompletamente diferente a la arquitectura del computador.En este momento se ha dado solución a problemas con altos niveles deincertidumbre que con métodos tradicionales jamás se habría obtenido.Soluciones tan novedosas e interesantes como la reconstrucción craneofacialpara la identificación de hombres, música neurocomputacional, sistemas dedetección de virus en computadores conocidos y desconocidos, identificación deusuarios en cajeros automáticos desde la imagen del iris de los ojos,reconocimiento de emisores en comunicaciones, diagnóstico de hepatitis,recuperación de telecomunicaciones ante fallas en el software, interpretación depalabras chinas, detección de minas submarinas, análisis de texturas,reconocimiento de objetos tridimensionales y reconocimiento de texto manuscrito. 30
  • 31. 9.- Bibliografías:  Flórez López Raquel. (2008). Las Redes Neuronales Artificiales. Prited in Spain.  Pino Diez Raúl (2001). Introducción a la inteligencia artificial. Servicio de publicaciones Universidad de Oviedo  Jesús de la Fuente María (1999). Aplicaciones de las redes neuronales en supervisión, diagnosis y control de procesos. Impreso en Venezuela.  Flórez López José María ( ). Las redes neuronales artificiales.  Hernández López Leonor. ( ). Predicción y optimización de emisores y consumo mediante redes neuronales  http://www.redes-neuronales.netfirms.com/tutorial-redes- neuronales/clasificacion-de-redes-neuronales-respecto-al-aprendizaje.htm  http://www.books.google.com/books?id=X0uLwi1Ap4QC&pg=PA16&dq=co ncepto+de+redes+neuronales+artificiales&hl=es&ei=dwW_TMuzIoL88Aaa- 826Bg&sa=X&oi=book_result&ct=book- thumbnail&resnum=1&ved=0CC8Q6wEwAA#v=onepage&q=concepto%20d e%20redes%20neuronales%20artificiales&f=false  http://members.tripod.com/jesus_alfonso_lopez/RnaIntro.html  http://listas.20minutos.es/lista/inventos-humanos-basados-en-aptitudes- animales-187409/  http://www.answermath.com/neural-networks/tutorial-esp-4- construccion.htm 31