Quanticismo

617 views

Published on

0 Comments
0 Likes
Statistics
Notes
  • Be the first to comment

  • Be the first to like this

No Downloads
Views
Total views
617
On SlideShare
0
From Embeds
0
Number of Embeds
2
Actions
Shares
0
Downloads
10
Comments
0
Likes
0
Embeds 0
No embeds

No notes for slide

Quanticismo

  1. 1. QUANTICISMO, Una teoría que refleja las bases del cambio Dolors Capdet Octubre 2011 El Quanticismo es una nueva teoría que trata de explicar la manera de entender la realidad y, por tanto, de relacionarse y de aprender, teniendo en cuenta las relaciones de interacción e inseparabilidad entre los objetos visibles (que consideramos reales, incluyendo las personas) y las partículas subatómicas (sólo visibles a través de la tecnología) que forman parte del mismo sistema y que mantienen su equilibrio. 1. INTRODUCCIÓN Sin duda, el principal objetivo de todo ser vivo es la supervivencia, es decir, la gestión eficiente de la vida, siendo la información un recurso esencial para ello. Hasta prácticamente la última década del siglo XX, se consideraba que cuanto mayor era la cantidad de información acumulada mayor era también el grado de sabiduría del individuo, entendida como capacidad de reconocimiento y gestión de patrones eficientes para la toma decisiones. Sin embargo, el imparable desarrollo de internet, que multiplica exponencialmente el volumen de información disponible y el creciente grado de conectivismo, traslada el poder de decisión desde el individuo hacia la comunidad. El poder de decisión ha marcado la evolución tanto a nivel individual y social. En función de cada época éste ha tenido carácter individual, grupal o social y ha estado basado en distintos conceptos. Así, por ejemplo, en el Renacimiento, el poder decisor, basado en la razón, tenia un carácter y afectación individual; mientras que en la Revolución industrial, donde derivado del marxismo primaba la producción y una organización social por clases, el poder de decisión tenía carácter y afectación colectivo. Trasladado al campo educativo, tenemos una evolución que va desde un aprendizaje individual en el que prima la razón y la objetividad; hasta un aprendizaje de carácter colectivo y/o masivo, organizado en aulas y centrado en la producción en serie con el objetivo de que los aprendices repliquen el modelo. La llegada de internet favorece que el macroespacio abandone progresivamente su estructura fragmentaria para volver a la original, basada en la agrupación de diversos tipos de partículas que forman los objetos, las identidades, el contexto y el universo entero. Cada una de estas agrupaciones forma parte del todo y, por ello, contribuye al equilibrio del sistema pero precisamente por ello goza de una cierta autonomía que le permite actuar sobre su contexto inmediato y modificarlo. Internet y los mundos virtuales son un ejemplo de ello porque permite modificar la realidad del contexto y, a su vez, alterar la relación espacio/tiempo, ya que posibilita crear y recrear nuevos contextos y nuevas realidades. Pero internet es sólo la punta de lanza de una nueva era tecnológica en la que ya se está trabajando y que revolucionará nuestra forma de ver el mundo. Es la era cuántica, que aportará una computación mucho más veloz y que ofrecerá sus resultados en términos de aumentos de probabilidad.
  2. 2. 2. RAZONAMIENTO LÓGICO Y DESARROLLO TECNOLÓGICO Entendemos por razonamiento el proceso de realizar una inferencia de una conclusión a partir de un conjunto dado de premisas. Este proceso cognitivo, que inevitablemente se ha desarrollado asociado al lenguaje, es la Lógica, establecida por Aristóteles, y que trata de distinguir el razonamiento correcto del incorrecto. La lógica aristotélica1 y estoica2 basa el razonamiento en el análisis de la estructura de los argumentos, incidiendo en la creación correcta de los discursos y en la identificación de falacias y paradojas, como método para llegar a la verdad. Los filósofos racionalistas3 (Leibniz, Descartes, Pascal) van un paso más allá e intentan buscar las claves y relaciones para establecer un lenguaje universal. Ello pasa por la simbolización de ideas ya que al ser una construcción artificial es universal y evita los equívocos. Así, si los símbolos tienen una correspondencia con la entidad representada, mediante algoritmos, se puede llegar a calcular la verdad. 2.1 El arte de pensar Aristóteles establece tres principios como verdaderas leyes del pensamiento: • Identidad: Si A es A, todo lo que es, es • Contradicción: No es posible afirmar y negar la misma cosa • Tercero excluido: Si tenemos dos juicios que niegan la misma cosa, uno de ellos es necesariamente falso. A las que Leibniz añade el de: • Razón suficiente: Sólo es válido aquello que podemos probar suficientemente. Hegel4 revoluciona la Dialéctica ya que, centrado en la contraposición, describe las fases del análisis como método científico del razonamiento: • Tesis: Muestra una perspectiva distinta u opuesta a la concepción generalmente aceptada. • Antítesis: Muestra los problemas y las contradicciones a tener en cuenta. • Síntesis: Muestra la resolución o una nueva forma de contemplar el problema. Considera también las relaciones de contradicción en la epistemología (sujeto/objeto) y la ontología (realidad/razón). 2.2 Cálculo matemático El siglo XIX se impone el cálculo matemático. Así Boole5 retoma la idea racionalista de cálculo de la verdad y configura un sistema binario (asigna valores 0 y 1) para realizar cálculos matemáticos, mientras que la condesa de Lovelace6 desarrolla un conjunto de instrucciones que permiten que otras se repitan en un bucle o subrutina, que precede lo que hoy entendemos como software. Por su parte, Frege7 , en su Conceptografía establece las bases de la lógica matemática. En ella introduce unos cuantificadores que permiten formalizar una nueva cantidad de nuevos argumentos, separando los principios axiomáticos de la lógica de su contenido semántico. Con la publicación de su tesis logicista, sienta las bases de la computación moderna, basada en una arquitectura diseñada por Von Neumann8 , que se materializa 1 Lógica aristotélica. Wikipedia. http://es.wikipedia.org/wiki/L%C3%B3gica_aristot%C3%A9lica (última consulta: 15 de octubre 2011) 2 Lógica estoica. Wikipedia. http://es.wikipedia.org/wiki/Estoicismo (última consulta: 15 de octubre 2011) 3 Racionalistas. Wikipedia. http://es.wikipedia.org/wiki/Racionalismo (última consulta: 15 de octubre 2011) 4 Hegel. Wikipedia.http://es.wikipedia.org/wiki/Georg_Wilhelm_Friedrich_Hegel#Pensamiento (última consulta: 15 de octubre 2011) 5 Boole. Wikipedia. http://es.wikipedia.org/wiki/George_Boole (última consulta: 15 de octubre 2011) 6 Ada Lovelace. Wikipedia. http://es.wikipedia.org/wiki/Ada_Lovelace (última consulta: 15 de octubre 2011) 7 Frege. Wikipedia. http://es.wikipedia.org/wiki/Gottlob_Frege (última consulta: 15 de octubre 2011) 8 Von Neumann. Wikipedia. http://es.wikipedia.org/wiki/John_von_Neumann (última consulta: 15 de octubre 2011)
  3. 3. en 1950 con la máquina de Turing9 . 2.3 El juego, un escenario dinámico para la toma de decisiones Von Neumann aporta una nueva visión de las matemáticas que le hacen considerar el juego no como una cuestión de azar sino como un escenario dinámico que implica una toma de decisiones que configura una estrategia para obtener un beneficio. Ello le permite, junto a Morgenstern10 , desarrollar la Teoría de Juegos11 . Por otra parte, y conjuntamente con Birkhoff,12 prueba que la mecánica cuántica13 requiere una lógica substancialmente diferente de la lógica clásica. 9 Máquina de Turing. Wikipedia. http://es.wikipedia.org/wiki/M%C3%A1quina_de_Turing (última consulta: 15 de octubre 2011) 10 Morgenstern. Wikipedia. http://es.wikipedia.org/wiki/Oskar_Morgenstern (última consulta: 15 de octubre 2011) 11 Teoría de juegos. Wikipedia. http://es.wikipedia.org/wiki/Teor%C3%ADa_de_juegos (última consulta: 15 de octubre 2011) 12 Birkhoff. Wikipedia. http://es.wikipedia.org/wiki/Garret_Birkhoff (última consulta: 15 de octubre 2011) 13 Mecánica cuántica. Wikipedia. http://es.wikipedia.org/wiki/Mec%C3%A1nica_cu%C3%A1ntica (última consulta: 15 de octubre 2011)
  4. 4. 2.4. Inicio del desarrollo de la Inteligencia Artificial En la década de los 60 se desarrolla la inteligencia artifical14 como una disciplina que permite diferenciar distintos tipos de conocimiento y su representación simbólica. Alan Turing15 formaliza los conceptos de algoritmo y computación, y junto a Wiener16 trabaja en el desarrollo de la cibernética17 , que trata de establecer un sistema de comunicación 14 Inteligencia artificial. Wikipedia. http://es.wikipedia.org/wiki/Inteligencia_artificial (última consulta: 15 de octubre 2011) 15 Alan Turing. Wikipedia. http://es.wikipedia.org/wiki/Alan_Turing#La_Universidad_y_sus_estudios_sobre_computabilidad (última consulta: 15 de octubre 2011) 16 Norbert Wiener. Wikipedia. http://en.wikipedia.org/wiki/Norbert_Wiener (última consulta: 15 de octubre 2011) 17 Cibernética. Wikipedia. http://es.wikipedia.org/wiki/Cibern%C3%A9tica (última consulta: 15 de octubre 2011)
  5. 5. entre el hombre y la máquina como premisa fundamental para administrar los sistemas de control que requieren las técnicas de producción del siglo XX. Paralelamente se desarrollaba la Teoría de Grafos18 y se creaban los chips, el lenguaje de programación y los microprocesadores. 2.5. Computadora personal En 1981, IBM lanza la primera computadora personal y Bill Gates y Paul Allen crean un sistema operativo sencillo de manejar y sumamente eficaz, el BASIC. A partir de este momento, en pocas décadas hemos pasado de tener unos ordenadores increíblemente grandes que apenas cabían en una habitación (el ENIAC, construido en 1946 en la Universidad de Pensilvania, pesaba 32 toneladas, tenía 17.468 válvulas y generaba un calor de 50º) a unos aparatos que, como los actuales teléfonos inteligentes que caben en nuestro bolsillo y nos ofrecen conectividad ininterrupida. Ello es posible gracias a la mejora continua del software y a que se reduce cada vez más el tamaño de los dispositivos para poder ofrecer mayor capacidad y rendimiento. Los ordenadores personales y especialmente internet tienen una gran trascendencia sobre los modos de pensar, de concebir el mundo que afecta los modos de transmisión de la misma, es decir, la forma de enseñar y aprender. 2.6. Internet y desarrollo tecnológico La web 1.0, que introdujo conceptos como el e-mail, la navegación o los sitios web, dando paso a la web 2.0 que potencia la comunicación y los sistemas de comunicación sincrona, rompiendo las barreras espacio/temporales. La web 3.0 (web semántica) hace posible que las máquinas puedan interpretar diversas secuencias de datos y ofrecer respuestas bajo demanda. Para ello utiliza una variedad de formatos de intercambio de datos (RDF / XML, N3, ...), y anotaciones como RDF Schema (RDFS) y el Ontology Web Language (OWL), destinados a proporcionar una descripción formal de conceptos, términos y relaciones dentro de una determinada área del conocimiento. En paralelo con los desarrollos de la web 2.0 y 3.0 se obtienen importantes mejoras que aportan apertura y la innovación ya que sus tecnologías de base: HTML, HTTP y TCP / IP, son abiertas y optimizan los recursos. Es el caso de: • Mundos virtuales, unos espacios tridimensionales que permiten la interacción y que actúan como una metáfora visual de la nueva realidad. Los más conocidos son Second Life y OpenSim. • Web M define los formatos de la estructura del contenedor de archivos, video y audio que consisten en secuencias de vídeo comprimido con el códec de vídeo y satisface la demanda de un servicio de transmisión de vídeo en tiempo real con la más alta calidad y mediante la utilización de una gran variedad de dispositivos. • Web P es un nuevo formato de imagen que proporciona la compresión para imágenes fotográficas, mejorando la calidad de las imágenes similares en JPEG. • Web Híbrida (mashups) utiliza contenidos obtenidos de otra fuente, vía una interface pública, API (web services), Web Feeds (por ejemplo RSS o Atom) y screen scraping. Entre los dispositivos móviles de última generación están los: • Smartphones, que incluyen Apps, programas informáticos que funcionan como herramientas (gratuitas o de pago) en aquellos dispositivos que están asociados a una tarifa de datos, satisfaciendo unas determinadas necesidades. • Tablet PC: Aúnan las ventajas de los portátiles y de los smartphones de ultima generación. Utilizan pantalla táctil, pesan poco y tienen las mismas conexiones 18 Teoría de Grafos. Wikipedia. http://es.wikipedia.org/wiki/Teor%C3%ADa_de_grafos (última consulta: 15 de octubre 2011)
  6. 6. que un netbook: WIFI, HDMI, USB. Utilizan MiFi, un dispositivo dirigido a empresas y consumidores que funciona como una conexión WiFi utilizando una red CDMA / GSM 3G, y establece conectividad de banda ancha de alta velocidad la cuál puede ser compartida hasta por 5 usuarios a la vez. Tienen pantallas de última generación con tecnología: • OLED (Diodo orgánico de emisión de luz) que, gracias a una capa orgánica con dos diodos, se estimula y emite luz por si misma, haciendo posible pantallas más delgadas, más flexibles y con mejor ángulo de visión, proporcionando ahorro de energía. Sus posibilidades de enrollado abre nuevas expectativas • AMOLED (Active Matrix OLED) ofrece pantallas ultradelgadas y ultrabrillantes que no requieren ningún tipo de luz de fondo, pudiendo incluso ser transparentes para la realidad aumentada. Se reduce el tamaño de los archivos mediante • Códecs, pequeños programas que incluyen unos algoritmos e instrucciones que permiten codificar y decodificar audio y video digital obteniendo una importante reducción en el tamaño del fichero, aunque con ello se puede resentir la calidad. Estos códecs encapsulan tres tipos de ficheros: audio, video y sincronización en formatos contenedores: MP3, MP4, AVI, MOV, MPG, MKV, RM y OGG, que sirven para almacenar o servir video en streaming. El formato HTLM5, instalados en la mayoría de navegadores permite acceder a ellos sin instalar pluguins adicionales. Ahora, además, se está extendiendo el formato Matrosca. Se mejora la calidad mediante: • Gráficos vectoriales escalables (SVG), un standard abierto que utiliza formas gráficas de vectores, de mapas de bits y texto, compatibles entre sí por lo que pueden ser agrupados y transformados en imágenes complejas integradas de forma nativa en otros objetos como los navegadores. Los procesadores también mejoran su rendimiento, es el caso de: • IVY, con 8 o 16 núcleos permiten el uso de hasta tres pantallas, posibilitan la tridimensionalidad y ofrecen mayor rendimiento en el mínimo espacio, con un menor consumo de energía. Ello hace que sea necesario cambiar de modelo hacia un nuevo modelo computacional con un nivel de complejidad y unos algoritmos distintos al de la computación actual. Es la computación cuántica19 , basada en el bit cuántico (Qubit), y de la cual ya existen algunas aplicaciones prácticas como la criptografía cuántica20 y algunos prototipos como la computadora de Kane21 , aunque, siendo realistas, hay que decir que este tipo de computación aún está en un fase inicial ya que surgen problemas no resueltos como la decoherencia ligada a la escalibilidad. La computación cuántica toma en consideración todas las interacciones que se producen en los microespacios subatómicos y que inciden sobre el macroespacio visible. Por ello, los resultados que ofrece no tienen carácter probabilistico (resuelto mediante la suma o producto de forma natural) sino de amplitud de probabilidades (suma vectorial de todas las fuerzas o interacciones). Por tanto, es de prever que el nuevo tipo de computación, de la misma manera que lo ha hecho la computación en su evolución hasta el momento actual, modelará nuestra comprensión del mundo y nos dará nuevas perspectivas de la realidad que todavía no imaginamos. 19 Computación cuántica. Wikipedia. http://es.wikipedia.org/wiki/Computaci%C3%B3n_cu%C3%A1ntica (última consulta: 15 de octubre 2011) 20 Criptografía cuántica. Wikipedia. http://es.wikipedia.org/wiki/Criptograf%C3%ADa_cu%C3%A1ntica (última consulta: 15 de octubre 2011) 21 Computadora de Kane. Wikipedia. http://es.wikipedia.org/wiki/Computadora_cu%C3%A1ntica_de_Kane (última consulta: 15 de octubre 2011)
  7. 7. 3. RAZONAMIENTO Y TRANSMISIÓN DE LA INFORMACIÓN El principal objetivo de todo ser vivo es la supervivencia, es decir, la gestión eficiente de su vida. Para ello, la información es un recurso esencial ya que le permite reconocer unos patrones de conducta válidos para hacer predicciones y que le facilitan la toma de decisiones para la resolución de los problemas que se les plantean. La forma de recoger y almacenar esta información ha ido cambiando a lo largo de la historia en función de las experiencias previas que se han ido almacenando en la memoria y se han transmitido de generación en generación. El cerebro fue el primer almacén donde se guardó la información pero ésta se perdía con algunos avatares o la desaparición física de su portador, por lo que el hombre ideó sucesivas tecnologías con el objeto de salvaguardarla. Piedras, pergaminos, papel, multimedia, cloud computing, etc., han servido y sirven de soporte informacional para legar el conocimiento a las futuras generaciones. El uso de cada una de estas tecnologías implica la necesidad de realizar un aprendizaje previo, ya que su funcionamiento se basa indefectiblemente en determinados códigos que van desde el lenguaje hasta los más complejos algoritmos, estando ambos en una constante evolución. Con cada mejora tecnológica se multiplica el volumen informacional disponible, algo que es de vital importancia para la educación puesto que la materia prima es la información. Sin embargo, es necesario considerar que disponer de un mayor volumen informacional no equivale necesariamente a disponer de una mayor calidad, y que la educación tiene como objetivo la replicación del modelo para la perpetuación del sistema vigente. Aún así, con cada replicación se introduce alguna alteración que inevitablemente conduce al cambio. Una mirada retrospectiva nos muestra que griegos y romanos enfocaban la educación hacia aspectos prácticos, por tanto, utilizaban información contrastada y unos patrones de conducta efectivos, basados siempre en lo visible y tangible. No ocurría lo mismo con el Cristianismo, que basaba la educación en la normativización de la fe, es decir, en lo intangible y no visible que, sin embargo, marcaba la conducta y explicaba los hechos para los que no se tenia una explicación lógica. En el Renacimiento se valoraba al individuo y la educación se basaba en la razón y en una singularidad que progresivamente derivó en diferenciación. Es en esta época en que Erasmo de Rotterdam gesta la noción de pedagogía, Locke aboga por el currículo y un método educativo, Juan Bautista de la Salle defiende la sistematización de la enseñanza, Descartes subraya el papel de la lógica como principio fundamental para el pensamiento racional y Comenius en su Didáctica Magna subrayaba la necesidad de estimular el interés del alumno en los procesos educativos y el valor de utilizar recursos educativos. En el siglo XVIII Hebrat introduce el instructivismo (base del diseño instruccional actual) y en el XIX, en plena transformación social por los avances de la ciencia y la técnica que implicaron una reorganización de los procesos productivos, se consolida el positivismo pedagógico basado en la investigación y, por tanto, en la objetividad. En el siglo XX la investigación psicológica desarrolla distintas teorías de aprendizaje que, de forma gradual, derivan desde una conciliación entre la autoridad del maestro que había existido hasta aquel momento hacia la casi total la libertad del alumno que toma el liderazgo de la situación. De la mano del Constructivismo se abandona el aprendizaje vertical, característico del Conductismo, para adoptar una formación de tipo horizontal y democratizador en el que se aprende de las propias experiencias, ya sean individuales o grupales, resultando muy favorecido este modelo por la llegada de internet y su rápida estandarización en cuanto a uso, pese a que sus resultados no satisfacen a todos. Y es que realmente es Internet, es decir la tecnología y no la pedagogía, lo que modifica el modo de pensar, dando paso a una nueva realidad, a un nuevo contexto que implica la ruptura con todo lo anterior y prepara la transición hacia la nueva era computacional.
  8. 8. 3.1 Internet, una metáfora visual de la nueva realidad Internet constituye una metáfora visual que simula realidades simultáneas, mezcla lo tangible con lo intangible, lo objetivo con lo subjetivo, y, en definitiva, hace posible lo imposible. Antes de la llegada de internet la realidad era una y las posibilidades de modificarla de una forma significativa eran más bien escasas. Sin embargo, internet se ha convertido en una metáfora visual de la nueva realidad que se está gestando y que culminará con una nueva computacional. Por ejemplo, permite simultanear distintas realidades, crear nuevos contextos, alterar la tradicional relación espacio/tiempo, etc.; y si nos fijamos en los mundos virtuales comprobamos que unos objetos pueden atravesar a otros sin sufrir modificación alguna, que pueden teleportarse de un sim a otro de una forma casi inmediata, que un avatar puede adoptar distintas formas en función de los elementos asociados, etc. Además, Internet rompe la relación espacio/temporal existente en el contexto real y
  9. 9. favorece la creación de nuevos espacios comunes que no serian asumibles de otra manera. En otro sentido, internet entronca con los principios de la física cuántica, de la biología, de la epigenética, etc.en el sentido de que todas las partículas, células o entidades tienden a unirse para ser más eficientes en la obtención de la información, siendo las conexiones o las interacciones que se crean las que tienen el verdadero valor. En ello se basa el Conectivismo que también toma en consideración elementos como el razonamiento artificial al distinguir entre nodos humanos y artificiales, la teoría del caos y el principio de incertidumbre, ya que el crecimiento exponencial de la cantidade de información hace imposible poderla procesar toda sin ayuda de la tecnología.
  10. 10. 4. CEREBRO Y TECNOLOGÍA El cerebro es la primera tecnología utilizada para poder gestionar la vida de una forma eficiente. Sin embargo, pese a que tiene capacidad ilimitada, tiene una vida finita, que depende de la su portador. Por esa causa el hombre buscó otras alternativas que le permitieran guardar la información y transmitirla, es decir, la tecnología. Dentro de la tecnología, la computadora es la que ha resultado más eficiente y la que ha permitido un mayor y más rápido desarrollo. A diferencia del cerebro la computadora tiene una capacidad limitada pero su vida se recupera y se hace más eficiente con cada nuevo desarrollo. Sin embargo, el hombre y la máquina, es decir, cerebro y computadora, tienen muchas analogías en cuanto a funcionamiento, como se describe en la siguiente figura. HOMBRE MÁQUINA Composición Asociación de miles de células Asociación de miles de partículas Sistema operativo Código genético Sistema operativo Funcionamiento Actividad eléctrica • Hasta los 6 años es baja (Theta) y funciona como un receptor/grabador de programas Actividad eléctrica • Constante • En cualquier momento puede incorporar nuevos programas Proceso Subconsciente: • Basado en rutinas • El objetivo es garantizar la supervivencia Consciente: • De carácter creativo • El objetivo es el crecimiento, la expansión • Puede pensar sobre el pasado y sobre el futuro Invisible: • Basado en rutinas • El objetivo es garantizar el funcionamiento Visible: • Permite la creatividad • El objetivo es satisfacer la demanda del usuario. • Puede acceder al pasado y proyectar hacia el futuro. Rendimiento Las células reciben la información del contexto a través de su periferia (membrana). Si se agrupan en comunidades forman una entidad y aumenta exponencialmente la información recibida y, por ello, el nivel de inteligencia colectiva. Reciben información del contexto desde su periferia (usuario) Agrupadas en una comunidad forman una herramienta que aumenta la eficacia de los procesos. Actividad Medible desde el exterior (encefalograma) Medible desde el exterior (monitorización) Motor Cerebro + periféricos Computadora + periféricos Capacidad Ilimitada Limitada pero ampliable Durabilidad Limitada Renovable
  11. 11. Sin embargo, la computación actual, que basa su espectacular avance en la capacidad y la velocidad de procesamiento en la reducción de los chips. Sin embargo, existe una limitación a escala nanométrica que limita poder reducir más los chips y estamos cada vez más cerca de ello, por lo que se hace necesario trasnsitar hacia un nuevo modelo, basado en el bit cuántico (Qubit22 ) que puede tener nuevos valores más allá de los tradicionales 0 y 1. Ello requiere crear, además de un software, un hardware adecuado, cosa que no se ha conseguido todavía debido a la decoherencia cuántica (se deshace la superposición de Qubits) generada por la interacción y la escalabilidad. 22 Qubit o bit cuántico. Wikipedia. http://es.wikipedia.org/wiki/Qubit (última consulta: 15 de octubre 2011)
  12. 12. 4. COMPUTACIÓN CUÁNTICA, UNA NUEVA VISIÓN DEL MUNDO Para la física cuántica la realidad es la instantánea de un instante (J. Barbour)23 . Ello se explica porque las partículas tienen un doble movimiento contínuo (ondulatorio externo y rotatorio interno), pudiendo compartir simultáneamente más de un universo, cosa que crea relaciones de superposición, de entrelazamiento, de convergencia y de divergencia, que, pese a no ser percibidas en el macroespacio, lo afectan. Estas partículas establecidas en el microespacio o espacio subatómico (no visible sin la tecnología adecuada) son las que con su interacción dan consistencia y mantienen el equilibrio del sistema. Por tanto, cualquier intento de medir o explicar la realidad, debe tenerlas en cuenta. La mecánica cuántica distingue entre los macroespacios o espacios visibles, tangibles; y los microespacios, subatómicos, no visibles y no tangibles; analizando cómo la materia se agrupa para ser más eficiente. MECÁNICA CLÁSICA MECÁNICA CUÁNTICA • Se ocupa de describir el movimiento de los espacios macroscópicos, es decir de los espacios visibles y tangibles. • Estudia la agrupación de la materia que forma los objetos visibles y materializa la realidad. • Es determinista ya que existe una trayectoria definida, cosa que permite estudiar su movimiento. • Se ocupa de describir el movimiento de los espacios microscópicos, es decir de los espacios no visibles y no tangibles. • Estudia la cantidad mínima de materia, cuando ya no es fragmentable y no se visibilizan las partículas. • No es determinista ya que no existe una trayectoria definida para una partícula sometida a interacciones externas. En este sentido, la neurociencia explica que la materia va muy ligada a la conciencia que tenemos de la realidad. Sin materia, no hay energía ni forma de expresarla o visualizarla. Por su parte, la física cuántica considera que la realidad es expansiva a partir de una partícula inicial que se fragmenta en otras tantas, las cuales, a su vez hacen lo mismo, repitiéndose el proceso de una manera sucesiva, siempre que se den las condiciones favorables para ello. De hecho, si se recogieran todas ellas y se comprimieran, parece que se recompondría la partícula inicial. FÍSICA CLÁSICA FÍSICA CUÁNTICA • Física aristotélica: Cada movimiento tiene una causa inmediata. Se necesitaba un impulso para mantener un objeto en movimiento. • Física newtoniana: El movimiento no necesita una causa que lo impulse, pero los cambios sí lo necesitan. • Dada una causa no siempre se produce un efecto determinado ya que existen otros resultados alternativos posibles. Sólo pueden determinarse con precisión las probabilidades de estas alternativas. • Principio de incertidumbre: No es posible conocer a la vez la posición y la trayectoria de una partícula (W. Heisemberg24 ). • Teoría Cuántica de la medición: Se basa en la inseparabilidad de lo observado y el observador (J. Hagelin25 ) 23 J. Barbour. Wikipedia. http://en.wikipedia.org/wiki/Julian_Barbour (última consulta: 15 de octubre 2011) 24 W. Heisemberg. Wikipedia. http://es.wikipedia.org/wiki/Werner_Heisenberg (última consulta: 15 de octubre 2011)
  13. 13. De acuerdo con la Teoría de la Relatividad26 y la física cuántica27 todo está relacionado con la manera en que se interactúa con el objeto que se está observando. Por tanto, existe una clara analogía entre la percepción y la forma en la que la relatividad crea las cosas. En este sentido, cualquier intento de explicar o medir la realidad ha de considerar todas las relaciones generadas y que son susceptibles de ser generadas entre partículas que forman parte del microespacio, del macroespacio y del espacio que comparten. Esto es lo que tratará de hacer la nueva computación cuántica que no ofrece probabilidades sino aumentos de probabilidad, es decir, una previsión de las consecuencias de cada decisión y en el hecho de que la simple observación de las cosas interfiere en su trayectoria y modifica los resultados de forma irreversible. Con la tecnología actual, muchas de las operaciones que se realizan no sólo no nos reducen el grado de incertidumbre sino que lo aumentan, puesto que a partir de unos datos dados, es necesario deducir su posible resultado, a diferencia de la computación cuántica que, por su velocidad de procesamiento, nos resolverá estas cuestión de forma casi inmediata. Ello permite pensar que la tecnología sustituirá el tipo de razonamiento actual para propiciar otro mucho más creativo, que no requerirá que invirtamos tiempo en calcular el porcentaje de certeza a partir de pruebas de ensayo y error. PARTICULAS COMPUTACIÓN ACTUAL (Macroespacio) COMPUTACIÓN CUÁNTICA (Microespacio/Macroespacio) REALIDAD • Universo único. Objetos definidos • Multiversos. No hay objetos definidos, sólo partículas que se relacionan y comparten universos. ESTADO • Definido. Toma en cuenta un único estado (generalmente visible y tangible) • Ambiguo. Existe una superposición de estados, dada la Relación de Inseparabilidad (todo forma parte de un mismo sistema, que se fragmenta y expande pero que necesita de todas sus partes para mantener el equilibrio) TRAYECTORIA INDIVIDUAL • Definible, estadificable en base a los datos observados, y, por tanto, generalizable mediante la creación de patrones. • Variable, ya que la mera observación crea interferencias que impiden generalizar patrones de conducta. APLICACIÓN DE LOS PRINCIPIOS DE LA FÍSICA • Son aplicables todos los principios de la física clásica. Se obtienen probabilidades. • Sólo son aplicables los principios de la física cuántica. Se obtienen aumentos de probabilidad. OBJETIVIDAD DE LAS MAGNITUDES • La posición, el momento lineal, la velocidad, el momento angular, etc. pre-existen con independencia del observador y tienen un valor bien definido para cada instante del tiempo. • Hasta que alguien lo observa, todo son posibilidades y probabilidades (N. Böhr28 ) DETERMINISMO • Mediante ecuaciones diferenciales, si son conocidos los valores iniciales puede predecirse el valor de dichas magnitudes en el futuro. • No es posible conocer a la vez la posición y la trayectoria de una partícula. Principio de incertidumbre (Heisemberg) 25 J. Hagelin. Wikipedia. http://en.wikipedia.org/wiki/John_Hagelin (última consulta: 15 de octubre 2011) 26 Teoría de la Relatividad. Wikipedia. http://es.wikipedia.org/wiki/Teor%C3%ADa_de_la_relatividad (última consulta: 15 de octubre 2011) 27 La Mecánica cuántica, una rama de la Física. Wikipedia. http://es.wikipedia.org/wiki/Mec%C3%A1nica_cu %C3%A1ntica (última consulta: 15 de octubre 2011) 28 N Böhr. Wikipedia. http://es.wikipedia.org/wiki/Niels_Bohr (última consulta: 15 de octubre 2011)
  14. 14. 5. UNA NUEVA VISIÓN DEL MUNDO Y NUEVAS FORMAS DE APRENDER Y ENSEÑAR La física cuántica indica que todo procede de una sola partícula con alta gravedad y densidad que, en condiciones favorables, se expande y divide de manera infinita y superpuesta en nuevas partículas elementales que para poder existir requieren de la relación con otras partículas o con la globalidad de su universo, creando así lo que se denomina un sistema complejo29 . Estas partículas elementales e indivisibles puedan estar simultanemanente en varias posiciones y en varios universos. Todas estas posiciones y los posibles estados del sistema son agrupadas y descritas por la llamada función de onda (Schrödinger30 , von Neumann, Stuart Bell31 , Aspect32 ). Tanto desde el punto de vista de la relatividad como de la física cuántica todo está relacionado (Bohm33 ). Por tanto, una acción consciente del observador puede producir cambios irreversibles en el comportamiento (Al-Khalili34 ) de aquello que es observado ya que ambos forman parte del mismo sistema y mantienen una necesaria relación de inseparabilidad (Hagelin) que es la base de su equilibrio. Esta afirmación tampoco debe sorprendernos mucho ya que el Conectivismo incorporó en su teoría los sistemas complejos para explicar que la realidad del entorno virtual era: • Compleja, ya que, de acuerdo con la Teoría de Sistemas35 , considera el entorno virtual como un todo (sistema) formado por distintas partes (subsistemas) que deben mantener la conexión y un necesario equilibrio entre ellas para garantizar su estabilidad. • Caótica y llena de incertidumbre. Tomando como referencia la Teoría del Caos36 , plantea que, al ser tantas y tan diversas las interacciones (intercambios de datos y de información) que se producen entre los nodos (personas o recursos que aportan estos datos e información), crece la incertidumbre y el caos dentro del sistema, siendo cada vez más necesaria la obtención de nuevas formas para buscar, filtrar, procesar, almacenar y distribuir el producto de este intercambio. De hecho, el aprendizaje trata de reducir el caos y la incertidubre para poder realizar una toma de decisiones eficientes. En este sentido, si la computación cuántica ofrece resultados, una gran parte del actual corpus de conocimiento, del aprendizaje, de la investigación y razonamiento científico deberá ser, al menos, reconsiderado ya que la computadora será capaz de resolver muchas de las cuestiones que ahora nos planteamos, permitiendo además, contemplar nuevos aspectos que harán posible anticiparse a la acción y, de alguna manera, poder modificar el futuro. COMPUTACIÓN TRADICIONAL COMPUTACIÓN CUÁNTICA Modelo computacional • Clásico: Probabilidades • Cuántico: Resultados Modelo educativo • Conductista: Memorización, Repetición • Constructivista: Colaboración, • Quanticismo: Asociación, Superposición. Inseparabilidad 29 Sistema complejo. Wikipedia. http://es.wikipedia.org/wiki/Sistema_complejo (Ultima consulta: 15 de octubre de 2011) 30 Erwin Schrödinger. Wikipedia. http://es.wikipedia.org/wiki/Erwin_Schr%C3%B6dinger (Ultima consulta: 15 de octubre de 2011) 31 Stuart Bell. Wikipedia. http://en.wikipedia.org/wiki/John_Stewart_Bell (Ultima consulta: 15 de octubre de 2011) 32 Alain Aspect. Wikipedia. http://en.wikipedia.org/wiki/Alain_Aspect (Ultima consulta: 15 de octubre de 2011) 33 David Bohm. Wikipedia. http://es.wikipedia.org/wiki/David_Bohm (Ultima consulta: 15 de octubre de 2011) 34 Jim Al-Khalili. Wikipedia. http://en.wikipedia.org/wiki/Jim_Al-Khalili (Ultima consulta: 15 de octubre de 2011) 35 Teoría de los sistemas. Wikipedia. http://es.wikipedia.org/wiki/Teor%C3%ADa_de_sistemas (Ultima consulta: 15 de octubre de 2011) 36 Teoría del Caos. Wikipedia. http://es.wikipedia.org/wiki/Teor%C3%ADa_del_caos (Ultima consulta: 15 de octubre de 2011)
  15. 15. Simulación • Conectivista: Redes, Colaborativismo Modelo de Investigación • Ensayo y error. • Colisión de datos De la misma manera la computación cuántica mejorará la seguridad de los datos ya que la encriptación cuántica no es descifrable.

×