SlideShare a Scribd company logo
1 of 67
Hacia el Universo Topológico

(1990-1999)

Si bien las teorías de la relatividad nacieron en las dos primeras décadas del siglo que va a terminar, aún el
grueso de la humanidad no las comprende; pero sus repercusiones, sin embargo son - por lo contrario -
materia de diaria reflexión para los científicos del micro y del macro cosmos, pues las revelaciones que sacó
a la luz constituyen la armazón básica sobre la cual se elabora todo el pensamiento cosmológico en lo que
corresponde a la materia, el tiempo y el espacio y el involucramiento de la mente y la conciencia en todo el
proceso evolutivo ascencional. La cosmología antes de Einstein trataba de partes del Universo; a partir de
Einstein se unifica el concepto y el nacimiento (si es que lo hubo), el desarrollo y su desenlace (si es que lo
tendrá) pasó ipso - facto a ser el fundamento de la elaboración cosmológica, aunque la gran mayoría de los
astrónomos prosiguieron su labor de rutina asidos a los telescopios y radiotelescopios y siendo interrumpida
su labor por la teorización en el mundo de la cuántica que se iba desarrollando cerca, pero aparte.

A partir del momento en que la tesis del “Huevo Cósmico” del abate George Lemaitre, adquiere
reconocimiento y respetabilidad académicas, la cosmología no habrá de abandonar la mezcla de intuición y
empirismo, de metafísica y física que la distinguió en el pasado y siguen siendo su distintivo, hoy día, quizá
porque trata una materia muy delicada y sensible, como bien lo reconocen los cosmologistas ,aunque con
toda seriedad y objetividad quisieran que así no fuese, pues reniegan de la parte metafísica, aunque esta siga
apareciendo velada o abiertamente en sus “predicciones” en sus “generalizaciones”, y en sus proyecciones al
distante futuro.

Pero aparte de no ser un simple científico, sino ahora una curiosa mezcla no acabada aún de filósofo, teólogo
y teórico de la astronomía que involucra con sus afirmaciones el destino planetario y de la humanidad, el
cosmólogo que ya tenía casi resuelto el rompecabezas del Universo con base en un modelo estándar
convenientemente modificado con la teoría complementaria inflacionista, se enfrenta ahora a otros dilemas.

Un problema que aqueja a la cosmología es tanto el tener que enfrentar sus propios problemas; en su propio
campo, asumiendo la responsabilidad de los resultados, pero compartiendo con especialistas de otras
disciplinas su área de trabajo por lo que, desde entonces ya la cosmología no es la misma. Otro problema
derivado de ese - pero también del proceso de fusión que invade todo el quehacer científico (porque el
problema no es solo en la física) es que ya no hay “parcelas independientes”, ni “cotos de caza privados” ni
“compartimientos estancos” en la ciencia cosmológica.

El hombre descubre que el Universo es uno y que la interrelación entre una galaxia, un cerebro humano, una
flor, un pedazo de hierro o un virus no es obra de la casualidad como se trató de hacer creer por muchos
años por parte de las corrientes materialistas. Si el ser humano “es materia de estrellas”, como afirma el
exobiólogo Carl Sagan y estamos hechos de energía (nosotros, el macro y el micro Universo) es obvio que la
modalidad de entender, descifrar y describir el Universo requiere del nuevo paradigma del enfoque holístico,
pero el científico no se siente cómodo en ese nuevo traje.

Esto significa que a los ya insolubles problemas que demandan la atención de los cosmólogos, se está
agregando la presión de muchas personas que desean saber más acerca de las sutiles conexiones entre su
sistema nervioso y el entorno cercano; entre éste y el planeta que le alberga, entre la Tierra y el Sistema
Solar; y por supuesto entre el Sistema Solar y la Galaxia Local, entre ésta y el cúmulo local en la cual se
encuentra inmersa y entre ésta y el Supercúmulo a la cual está ligada. Y también desea saber cómo se
conecta con otros supercúmulos y obviamente con el Universo entero y aún - ávido e insaciable - con otros
posibles o hipotéticos Universos que ya no son elucubraciones de esotéricos, teósofos, espiritualistas o
iluminados, sino que le han sido anunciadas por los propios cosmólogos científicos.

En fin que sin tener explicaciones completas aún y cada vez más complicado el panorama, el bote de la
cosmología ha comenzado a “hacer agua”, quizá como lo previera Stephen W. Hawking con el postulado de
la “Ignorancia Relativa”, émulo moderno del filósofo griego que decía “sólo sé que no sé nada”.
Pero esa afirmación no es un grito de desencanto, sino más bien un ¡Manos a la obra! y es eso lo que los
cosmólogos siempre - sin rendirse han hecho, desde Pitágoras el primer cosmólogo, según narra la historia
de Occidente porque recogen ya no solo las inquietudes de los legos que esperan respuestas mágicas de la
Cosmologías, sino también las dudas de la física cuántica que se han extrapolado ahora a los modelos
cosmológicos. Además el ser humano se preocupa más acerca de lo que ocurrió antes del momento T = O
pues la respuesta implica la existencia misma de Dios, o a lo sumo de su voluntad implícita en el Big Bang,
y condiciona el presente así como el incierto futuro.

Dicho de otra manera al tocar el cosmólogo el ámbito reservado a la teología: el inicio del inicio - y aún más
atrás en el tiempo - al iniciador de la Creación- lo que afirme de ahora en adelante en los modelos, topa con
algo más que la curiosidad de los legos: está develando los entresijos en que el “alma” ha permanecido
escondida.

Y así como el astrónomo tardó en acomodarse a las nuevas reglas de juego que implica la relatividad
einsteniana; el cosmólogo ahora apenas comienza a moverse, con cuidado en el mundo de la incertidumbre
que es la física de partículas; lo cual le coloca en un terreno muy diferente pues ha debido pasar del
“Telescopio” a los “aceleradores de partículas subatómicas construidos gracias a las predicciones de la
Teoría de la Física Cuántica que no tuvo en su nacimiento el “boom” de la espectacularidad que envolvió a
las ideas de Einstein; pero cuyas repercusiones son de importancia paralelos (o aún más allá); según piensan
algunos físicos.

Consustancialmente la capacidad de ampliación de la única ventana que el planeta Tierra tiene para captar y
entender el mensaje del espectro electromagnético, ha entrado en un proceso de crecimiento acelerado
debido a la información que aportan las sondas espaciales, los nuevos telescopios y radiotelescopios
ubicados en zonas privilegiadas del planeta, dotados de sofisticados instrumentos auxiliares; así como los
laboratorios geosincrónicos tripulados y no tripulados, a los que se les ha unido recientemente el Telescopio
Espacial Hubble, que pese a su lamentable defecto congénito por un error en el pulido de su lente principal
brinda - no obstante - información valiosa, una vez que ha sido reparado.

Además - para hacer más complejo el panorama - la cosmología comienza a ser invadida de nuevas formas
de pensar al introducirse tanto los conceptos orientalistas de los “contrarios” (teoría del TAO); como
aspectos relativos a la filosofía hinduista de los ciclos de la naturaleza (más conocida entre los cosmólogos
como “Teoría Shiva”). Y como corolario el cosmólogo Frank J. Tippler de la Universidad de Tulane, ha
publicado la primera teoría físico-matemática que correlaciona el Universo, Dios Creador, la resurrección y
el futuro de las almas en una Teoría del Punto Omega, clara reminiscencia -plenamente aceptada por el- de
la idea seminal del jesuita Theilhard de Chardin.

Así que las discreciones y reflexiones que a lo largo de los capítulos anteriores han ido matizando el
contexto del avance cosmológico, eran un anticipo obligado. En este capítulo el tema a desarrollar será
estrictamente cosmológico, para dejar asentado al acercarse el Tercer Milenio cual es -exactamente- el
estado del conocimiento en la elaboración de modelos científicos. Como podrá observarse la mayoría de
esos modelos son muy ambiciosos, complejos, difíciles de captar con la imaginación sujeta a las leyes de la
física conocida y nos van a llevar por rumbos cuasi esotéricos.

COSMOLOGÍA: NUEVA CIENCIA: Un estudio efectuado por Helmuth A. Abt para la revista Sky &
Telescope revela que, a mediados de la década de los noventa el número de páginas publicadas en cada
artículo que contiene el sumario de las comunicaciones científicas astronómicas ha aumentado a partir de
1910 de una a seis; en el mismo tiempo la cantidad de artículos se aumenta anualmente un diez por ciento y
aunque los artículos sobre teoría han crecido desde la primera fecha de un cinco por ciento sobre el total,
hasta llegar a un 33% en la década de los noventa la tendencia es a duplicarse cada setenta y ocho años
después de la II Guerra Mundial. Se observa asimismo ahora una tendencia a presentar trabajos
multidisciplinarios pero con mayor énfasis en el trabajo observacional disciplinario. Por otra parte - desde
1910 - el número de páginas publicadas anualmente (promediando 1000 palabras por cada página) se ha
incrementado en un 40%. El tamaño de los artículos ha subido de menos de tres páginas a cerca de doce. El
estudio incluye únicamente tres revistas norteamericanas: “Publications of the Astronomical Society of The
Pacific ; Astrophysical Journal y Astronomical Journal.Si se agregan publicaciones como Nature, Science,
British Astronomical, Physic Today ,para mencionar únicamente las más conocidas en idioma inglés , las
cifras de comunicaciones científicas sube en proporciones inimaginables.

Una deducción obtenida con base en la correlación de los datos suministrados por la ADION de Francia
durante los primeros años de la década de los noventa permite sacar dos conclusiones: una, que el sumario
de comunicaciones científicas asciende a un promedio de 42 páginas y que el número de artículos por año ha
aumentado en poco más de veinte por ciento entre 1975 y 1995, para totalizar más de 100 por año.

Si se unen los resultados de ambos estudios es posible concluir que la mayoría (87% de los artículos) son
obra de equipos multidisciplinarios, de los cuales más del 94% son de materia observacional; y de éstos un
27% presentan una mezcla entre aspectos propiamente astronómicos con propuestas obtenidas de la física de
partículas y solamente un 8% son artículos dedicados a la “ cosmología pura”. Aunque esta no es -ni mucho
menos una muestra representativa- sino una aproximación especulativa al menos dos conclusiones pueden
derivarse de estos datos:

1) La primera se refiere al aumento del interés por el estudio de la astronomía como carrera universitaria y al
involucramiento de los estudiantes con equipos de investigación en las primeras fases de sus carreras, no
sólo como incentivo, sino como estrategia de utilización de sus mentes frescas, imaginativas y sin posiciones
apriorísticas.

2) La segunda se relaciona con la materia cosmológica propiamente dicha y es que si bien el trabajo
académico efectuado en universidades o en institutos afiliados a universidades o a esfuerzos conjuntos de
universidades de un mismo país o de varias naciones, se centra en labores astronómicas rutinarias de
observación e investigación; el trabajo en el área de la especialización cosmológica propiamente dicha
(elaboración de teorías) es una labor paralela, porque ahora debe hacerse con mucha seriedad, dado que lo
que comenzó como una especulación matemática o filosófica hoy día tiene ya grado de ciencia.

Esta labor es paralela además, porque los recursos financieros destinados a estos estudios especializados no
suelen contar necesariamente con las dotaciones presupuestarias por parte de los políticos, más interesados o
en la solución de otros problemas o en la mantención de intereses político - militares.

Otro aspecto que suele afectar el trabajo cosmológico es que de igual manera que sólo público entendido
distingue la astronomía de la astrología con cifras que pueden oscilar entre el 5% y el 10%, según se trate de
países desarrollados o países no desarrollados, como señala la Sociedad Astronómica Irlandesa en un estudio
que data de 1993, y que como dato curioso, agrega que muchos de los planteamientos de la cosmología
suelen asociarse con la ciencia - ficción.

Los cosmólogos lo saben y al igual que los astrónomos esta otra ignominia es superable por su desenfado y
buen humor, para disminuir - quizá de esta forma - la tensión de saber que sobre sus hombros descansa una
responsabilidad que les trasciende en mucho, máxime que desde hace por lo menos dos décadas la prensa
mundial ha ido dando más espacio rutinario a la inclusión de noticias provenientes de este mundo, tanto
porque hay un serio interés divulgativo, como porque lo que suelen afirmar los astrónomos - cosmólogos
son verdaderos “platos fuertes” para esa misma prensa, pues se prestan fácilmente para títulos de carácter
sensacionalista.

La aparición de “software” (programas) especializado para computadoras personales (P.C.); de cintas de
video en formatos accesibles al público (VHS 3/4 y 1/2 y Beta) que eran las herramientas usuales en la
década anterior han cedido paso a las nuevas tecnologías digitalizadas que ahora acompañan el material
divulgativo básico las de colecciones de “slides” (transparencias fotográficas) y las fotografías y películas
digitalizadas a color con base en técnicas sofisticadas capaces de captar fotones de uno a uno con telescopios
personales de gran apertura, ha comenzado a permear el mercado de los "astrónomos amateurs"
(aficionados), serios, cuanto el de los Hobbystar desprovistos de conocimientos pero con capacidad
adquisitiva. De esta manera la búsqueda de astrónomos y cosmólogos, fuertemente dotados de equipo
sofisticado, ya no es su campo de acción privativa, porque la unión de tecnología de punta y mercadotecnica
ha permitido la proliferación de la industria del conocimiento de las maravillas del cosmos, pero no como
mera contemplación, sino como esfuerzo personal.

El "boom" es de tal naturaleza que -por ejemplo- tan solo dos casos de fabricantes de telescopios (en todas
las configuraciones y aperturas), publican mensualmente un total de 10 a 15 páginas "full-color" en la revista
Sky and Telescope y el índice de la revista permite constatar que más de la mitad de sus páginas mensuales,
están dedicadas a anuncios de venta de toda clase de dispositivos observacionales de nivel sofisticado.

Asimismo ha habido un auge en la construcción de novedosos sistemas de planetarios, museos espaciales,
museos científicos y áreas de divulgación especializada debidas al empuje de casas como Omnimax; Spitz
Space; Goto, Zeiss; que han revolucionado este campo educativo - por ahora solo accesible a países
desarrollados; pero en los próximos diez años al alcance de todos los países, según datos suministrados por
expertos en la materia.

También se ha aumentado con fuerza los encuentros antes casuales y hoy como parte de una obligada
agenda a la que concurren los cosmólogos para dar conferencias a públicos especializados, o trabajar en
mesas redondas o seminarios con el patrocinio de la Unión Astronómica Internacional (UAI); de la NASA,
de CESAT, (Europa), o de CCVE (Rusia).

Todo esto lleva a crear un interés muy marcado en la cosmología y aunque el grueso del público no muestra
gran interés en conocer cómo se elabora el pensamiento cosmológico actual si existe avidez en conocer la
última explicación que ha sido “lanzada al mercado” porque la sed de preguntas sigue sin ser saciada.

El acervo del conocimiento científico durante las últimas dos décadas se ha visto contaminado por la
aparición de literatura seudo - científica, que se confunde con la que proviene de la ciencia ficción, en razón
del inusitado interés por los asuntos cósmicos, la expectación que despiertan los programas de búsqueda de
vida extraterrestre; así como por el influjo de corrientes espiritualistas de corte budista y brahmánico en
algunas de las disciplinas científicas.

El impacto de las nuevas ideas, bajo el nombre genérico de New Age es, probablemente, el resultado de la
gran incertidumbre en que la ciencia ha dejado al ser humano, sobre todo ante la imposibilidad de procesar y
digerir, desde el punto de vista intelectual y emocional, los planteamientos de la física relativista y de la
física cuántica. Pero resulta que como toda nueva disciplina científica su nacimiento es una mezcla de
planteamiento apriorístico, dudas, expectativas y un cúmulo de datos a la espera de ser ordenados y
clasificados de forma coherente.

Al pasar la cosmología de las teorías a los modelos y de estos a las leyes y finalmente, a los principios
fundamentales, el panorama deberá aclararse. Por el momento la cosmología sigue estando amarrada a la
nueva física, y esta, a su vez al desembarazarse de consideraciones metafísicas provenientes de la teología y
la filosofía ha establecido su propia metafísica, con hondo acento reduccionista a veces y en otras haciendo
extrapolaciones en otras áreas del conocimiento.

Todo el trabajo de divulgación en el campo de la Cosmología en las décadas anteriores se fundamenta en los
hallazgos astronómicos y en las teorías cosmológicas. Pero al convertirse la cosmología en ciencia uniendo
las tesis relativistas y las tesis cuánticas se produce un vacío de entendimiento que no afecta solamente a los
legos sino a los propios físicos.

Esta capítulo se divide en cuatro áreas: la primera se refiere a nuevos aportes teóricos, así como incluye las
polémicas en torno a esto; la segunda se refiere a los nuevos hallazgos observacionales; la tercera nos ubica
en la dirección de las investigaciones de la topología del Universo; la cuarta se refiere al problema del
tiempo, a sus paradojas teórico-prácticas, así como a un problema concreto: la edad real del Universo y las
repercusiones de este problema sobre la validez del modelo B.B.

Por ejemplo la revista Sky & Telescope da a conocer estos datos reveladores: en 1959 del total de
astrónomos profesionales; solo un tercio de la comunidad astronómica aceptaba los planteamientos del Big
Bang y apenas diez por ciento de ese tercio estaba involucrado en trabajo cosmológico y que para 1994
solamente el cincuenta por ciento de la comunidad científica (de un total de doce mil), manejaba los
conceptos “finito” e “infinito”.

En la época bajo análisis y a partir de ella ya sin interrupción de continuidad, emerge gran discusión teórico-
metafísica sobre las principales teorías con las que se explican los modelos del Universo. Hemos pasado de
la astronomía de posición (astronomía comtemplativa dirían los románticos) a la astronomía de las galaxias
y de allí a la astronomía del principio del Universo. Pero los físicos y matemáticos (que les acompañan en el
periplo) desean más: ir al inicio del inicio. Y de ese periplo irán a emergen no solo visiones, también mucha
teorización que es la argamasa del cosmólogo. De las visiones que emergen en esta época, se escogen unos
ejemplos que se matizan con criterios provenientes de los propios físicos:


POLÉMICAS TEÓRICAS

A continuación se explican los aportes teóricos más relevantes que preparan el advenimiento de las visiones
cosmológicas de este fin de siglo, aunque se advierte que sus bases se remontan, en algunos casos hasta la
década de los ochenta o más atrás; pero como es usual en la ciencia la divulgación de las polémicas entre los
teóricos afloran apenas en este tiempo.

TEORÍAS DE UNIFICACIÓN (GUT/TOE) La búsqueda de una fórmula única que explique el Universo es
una meta permanente de la ciencia física y ha pasado por estas etapas:

1.- En la Antigüedad se trató de identificar una sustancia o una fuerza única como la proveedora de la
vitalidad de todo lo existente conocido y la respuesta fue la Teoría Atomista, que nace como un concepto
filosófico y luego termina siendo un concepto físico plenamente demostrado desde fines del siglo pasado.

2.- Al conocerse en el primer cuarto del siglo actual los diferentes constituyentes del átomo, la búsqueda se
orientó hacia la explicación unitaria de las diversas fuerzas y desembocó en el concepto de campo primero y
campo unitario después, así como se da inicio a conceptos de simetría.

3.- Al comprobarse entre los años cuarenta y setenta la intercambiabilidad entre la materia y la energía la
búsqueda desembocará en la investigación de la Supersimetría.

4.- Al tratar el problema del nacimiento del Universo la física se topa con el Muro de Plank que impide en
teoría (y en la práctica aún más) conciliar materia, energía y fuerzas lo que hace que en la década de los
setenta y ochenta aflore la teoría de la Supergravedad.

5.- A partir de los ochenta la búsqueda se torna muy práctica recurriendo a los aceleradores y
superaceleradores de partículas y nacen entre otras ideas: las teorías de los físicos nucleares llamadas Susy,
N = 8, o Primos, cada una con sus particularidades distintivas; pero a partir de aquí la búsqueda se vuelve
muy teórica, y detrás de cada experimento hay un laborioso trabajo de pensamiento auxiliado por
computadoras y supercomputadoras.

6.- De este último intento surgen propuestas muy polémicas, entre ellas: la Teoría de Cuerdas (propuesta
entre 1968 - 1970) y su avance más prometedor: la Teoría de Supercuerdas, (propuesta en 1974 - 1981) que
busca proveer de una explicación satisfactoria, elegante y sencilla de la geometría y de la topología del
espacio - tiempo, así como de las diversas (y al parecer “diferentes”) formas que adoptan sus constituyentes;
pero - además - busca dar respuesta satisfactoria a las interrogantes en torno a la aparición del Universo.

Por razones de preferencia algunos físicos se orientan hacia la unificación de las cuatro fuerzas conocidas y
ese esfuerzo se conoce como la búsqueda (por diversos caminos téoricos) de la Teoría de la Gran
Unificación, en inglés conocida como GUT. Otros físicos en la idea que las cuatro fuerzas son la diferente
expresión a diferente nivel energético de una sola y fundamental fuerza llaman a ese intento la búsqueda de
la Teoría del Todo (Teory of Every Thing), de la que surge el vocablo TOE.
SUPERFUERZA: Desde hace varios años se conoce la existencia de fuerzas que operan en la naturaleza,
cada una por aparte. El estudio de cómo operan en la naturaleza llevó a entender que pueden unirse y así es
como hoy día se las distingue en estas interacciones. A cada una de estas fuerzas corresponde una unidad
denominada “mensajero”, dotado de masa y carga. Ver anexo al final del libro.

En el proceso de encontrar las vías para unificar estas fuerzas se ha originado una búsqueda en la Gran
Unificación (Teoría de la Gran Unificación, conocida como GUT), aunque en realidad hay varias teorías de
este tipo (GUTS), como resultado del trabajo pionero iniciado en la década de la setenta por Glashow y
Georgi y cada teoría trabaja con familias de 5 partículas. En lo que interesa para la cosmología han surgido
estas ideas que involucran la búsqueda de la fuerza única, fundamental, simetría perfecta, que se “quiebra”
al originar el Universo para dar paso al Universo conocido; complejo y con fuerzas dispersas, que no es fácil
unificar después del nacimiento del Universo:

A.- Interacción Débil: Busca la conexión entre las interacciones electromagnéticas y la fuerza débil
(conocida como Q.E.D.). Los aspectos más relevantes de su búsqueda son los siguientes:

1) Los trabajos experimentales iniciados por Gell Mann, en los años sesenta, seguidos por los físicos
cuánticos Zweig, Weyl y los trabajos teóricos de Yang, Mills, Abel, Schwinger, Bludman, Glashow, Salam,
Ward, Weinberg, Higgs, T'Hooft, que culmina el holandés Martin Veltman, sirve para que en 1973 en el
CERN dirigido por Carlo Rubbia, se encuentren gran cantidad de pruebas repetitivas que confirman la
interacción de las partículas “mensajeros” de la fuerza electrodébil al estar presente la partícula Z.

2) En 1983 el CERN (Centre Europeen pour la Recherche Nucleare), construye un nuevo acelerador de
partículas que encuentra las pruebas de la existencia de las partículas mensajeros W y Z.

3) De ambos experimentos-productos de predicciones teóricas se infieren consecuencias muy importantes;
entre ellas que la interacción de estas masas se produjo durante el B. B. cuando la densidad energética
(temperatura) del Universo era suficientemente elevada, con lo que las partículas de masa ligeramente
inferior a 100 Ge V podían aparecer espontáneamente en forma de pares partícula - antipartícula. En lugar
de que el portador de la interacción débil viviera durante el breve instante de tiempo permitido por el
Principio de Incertidumbre (Heisemberg), el suministro de energía libre el entorno daría existencia real a
cualquiera de esas partículas virtuales alargándose la existencia. Si la masa de una partícula es menor que la
energía disponible, puede vivir permanentemente como el fotón por lo que la distinción entre fotón y
partículas W y Z se desvanece.

4) A energías suficientemente altas no hay entonces distinción entre interacciones electromagnéticas y
débiles. Tal distinción aparece en un Universo frío en que se rompe la simetría y así las partículas W y Z se
deshacen cuando una millonésima de segundo después de la explosión (T = 0), la temperatura pasa a ser 10
Kelvin. Desde entonces las interacciones electromagnéticas y la fuerza conocida como Interacción Débil
comenzaron a marchar por caminos separados.

B.- Interacción Fuerte: Busca la conexión entre las interacciones electromagnéticas y la fuerza fuerte
(conocida como Q.C.D.). Los aspectos más relevantes son los siguientes:

1) Los trabajos teóricos que inicia Gell - Mann en los años sesenta son seguidos por las teorías de
Greemberg, Hambu, Han, Glashow, Iliopouolos, Maiani, Fritzch, hasta 1974, año en que en el Laboratorio
Brookhaven y Stanford se descubren -simultáneamente- las pruebas de una nueva partícula (PSI) a la que
pronto siguieran muchas otras que permitieron descubrir las interacciones de otras partículas del tipo de los
leptones.

2) Y hay bases teóricas y empíricas fuertes para entender los mecanismos de la Q.E.D. explicados en el
punto anterior pero los mecanismos de la Q.C.D. apenas se iniciaron en años recientes y no hay seguridad
respecto a su comportamiento que aguarda nuevas experiencias en los aceleradores de partículas.
C.- Interacción Débil + Interacción Fuerte: Busca la interacción entre Q.E.D. y Q.C.D. Los aspectos más
relevantes son los siguientes:

1) Un paso a dar es la combinación de la interacción débil (Q.E.D) y la interacción fuerte (Q.C.D.).

2) Aún cuando se logre, todavía queda por fuera la gravedad.

3) Por ahora no queda más posibilidad que tratar de llevar las teorías unificadas (GUT) al laboratorio de la
Naturaleza; precisamente a la Gran Explosión, lo cual lo convierte de un trabajo de experimental, en teórico
nuevamente. Para ello se ha iniciado la llamada búsqueda de la Supersimetría.


SUPERSIMETRÍA: Es una teoría específica para ser aplicada al inicio del origen sobre el Universo. En esa
época - a juicio de los físicos: brillante, impetuosa, sencilla, sin dobleces; simple, pero luego, durante el
proceso que provoca el B. B. perdió esas características: el Universo nació, maduró, se complicó. En el
principio era la simetría sencilla, perfecta; luego - se hizo asimétrica, con niveles de estructuración con sus
propias leyes, todo se complicó. Los cosmólogos teorizan acerca de las características de las partículas
durante la época de la supersimetría: las partículas S o S-partículas.

a) El conjunto de leyes que dominan la materia (bajo la Teoría Estandard de la Física Cuántica) dan cuenta
de la existencia de una economía energética en que todo está compuesto por fermiones que interaccionan
uno con otro mediante el intercambio de otras partículas - mensajeros: los bosones. Por su parte los feriomes
tienen varias identidades; igual sucede con los bosones mensajeros, según asuman alguna identidad; por
ejemplo en la fuerza electromagnética y en la gravedad actúan en distancias largas. El modelo estándar
predice como funcionan estas cuatro fuerzas, pero (excepto en el caso del electromagnetismo y de la fuerza
nuclear débil) no ha predicho como están conectadas.

b) Una clave para encontrar esas conexiones es el concepto de simetría utilizado por el modelo estándar: a)
las cuatro fuerzas tienen simetría direccional propia, independientemente de su localización en el espacio; b)
las fuerzas electromagnéticas tienen cargas simétricas que se comportan igual, el cambio de cargas positivas
por cargas negativas no hace ninguna diferencia; c) en el caso de la electricidad y el magnetismo se
comportan igual y pueden ser intercambiables y obedecer así las mismas reglas. En consecuencia se
esperaría encontrar una gran simetría entre las cuatro fuerzas; pero no ocurre así; aunque todas tengan el
mismo origen y desde el inicio de la década de los setenta quedó evidenciado algo común: hay no una
simetría: hay una asimetría más bien.

c) Se trata de la asimetría entre fermiones y bosones, ya que aunque tienen propiedades similares: masa y
carga; sin embargo sus funciones son diferentes. De aquí nació la teoría de la supersimetría (SUSY) que
establece que para cada función hay otro fernión que le corresponde, pero es oculto y se comporta como
bosón; y para cada bosón, hay otro bosón que le corresponde, pero es oculto y se comporta como fermión.
Estas partículas ocultas (sibilinas) se denominan “superpartner” (supercompañeras) o S-partículas y la
interrelación entre ellas se denomina Supersimetría. Con esta teoría lo que parecía un amasijo de partículas y
de fuerzas sin relación entre si tomó forma: todas las partículas y sus fuerzas que parecen corresponder a
cosas diferentes son, en realidad manifestaciones diferentes de una sola: la simetría perfecta universal inicial
(puesto en términos metafísicos: “lo múltiple como manifestación de lo uno” implica no sólo a las partículas
sino a su escenario: el espacio-tiempo.

d) En el Universo inicial cada una de las cuatro fuerzas tenía un comportamiento similar; eran partes
simétricas de una sola fuerza; de lo que se desprende otra consideración metafísica: siendo similares las
cuatro, eran en realidad una sola; de lo que se deriva que el nacimiento del Universo en el B. B., fue la
ruptura de la Fuerza única: la Simetría Perfecta y esto plantea una paradoja: la creación del Universo rompe
el orden y crea el caos, lo que es un concepto contrario a lo que siempre se ha afirmado; pero que - en la
práctica lleva a la diversidad, en razón de la complejidad evolutiva; en donde la gravedad y la entropía se
anteponen para permitir la ascensión de la vida. Y la ascensión no es el resultado del azar y la necesidad -
aunque jueguen su papel, sino de la información existente en la materia, es decir en cada partícula y
subpartícula elemental, que luego dará emergencia a la conciencia.

e) Tal pareciera que la Teoría de la Supersimetría permite hacer especulaciones metafísicas que incluyen el
Alfa (Simetría Perfecta), propician el Universo y nuevamente llevan a la otra manifestación del inicio pero
al final del proceso el Omega. Pero también curiosamente la organización es un proceso que se abre paso a
través de la complejidad, como si se tratara de una homoestasis universal, que deja el campo libre para
modificaciones locales, episódicas; pero que en su conjunto se autoregula, porque el Universo es
autocontenido aunque no tenga limites.

SUPERGRAVEDAD: Los físicos de la CERN trabajan con un modelo experimental especial de GUT, tipo
SUSY que se centra en la gravedad, conocido como Supergravedad (o N = 8) y su variante se conoce como
PRIMOS. Sus caracteríscticas son las siguientes:

a) Estos físicos señalan que N = 8 explica todo: fuerzas, partículas materiales y geometría del espacio -
tiempo de una vez. Lo interesante es que N=8 no solo es normalizable, sino autonormalizable y da simples
respuestas finitas a las preguntas que se plantean los físicos.

b) Esto hace que estos físicos estimen que se está cerca de cumplir un sueño de Einstein de hace más de
sesenta años para expresar, el Universo en una ecuación de campo que unifica las fuerzas en un espacio -
tiempo curvo. Cuando Einstein expresó la Relatividad General lo hizo utilizando cuatro dimensiones (tres
del espacio, ya clásicas y le agregó el tiempo como cuarta). En 1919 el físico Theodor Kaluza, en Alemania
escribió las ecuaciones de Einstein que explicaban la fuerza de la gravedad en función de la curvatura del
continuo espacio - tiempo tetradimensional, pero lo hizo usando una quinta dimensión y descubrió - luego -
que se trataba de las ecuaciones del electromagnetismo de Maxwell.

c) Kaluza había unificado la gravedad y el electromagnetismo y este último, parecía ser simplemente la
gravedad operando en la quinta dimensión. En 1926, Oskar Linde físico sueco incorporó la idea de Kaluza a
la Teoría Cuántica, en la ecuación de Schrödinger que consta de cuatro variables y a la que agregó una
variable más. Descubrió que las soluciones demostraban ondas - partículas que se desplazan bajo la
influencia de los campos del electromagnetismo y de la fuerza gravitacional. (Estas teorías fueron olvidadas
porque no conociéndose más fuerzas con las cuales operar, todo parecía un artificio matemático y la única
“salida” era invocar más dimensiones añadiendo variables a las ecuaciones para incluir los efectos de los
nuevos campos y sus portadores, descritos todos por los mismos efectos geométricos que la gravedad (Por
ejemplo: un fotón sería una ondulación en la quinta dimensión, una partícula Z, una ondulación de la sexta
dimensión y así sucesivamente).

d) Pero en realidad ahora los físicos han comenzado a operar con la supergravedad (teoría N = 8) y sucede
que en la versión matemática más sencilla se requiere once dimensiones. Esto es: la superfuerza es
explicable con una teoría que requiere once dimensiones (las 4 del espacio - tiempo clásico einsteniano y
siete dimensiones adicionales). Para el físico Israel. Salam esta geometrización del mundo de las partículas y
campo, abre un fértil campo de teorización. Bajo esta nueva visión, se postula que el Universo tiene estas
condiciones al inicio:


SUPERCUERDAS: A raíz de estos planteamientos se han esbozado ramificaciones de la teoría. Así, por
ejemplo se plantea la llamada “Teoría de Cuerdas” ( que en la década anterior algunos confundían con la
existencia de Cuerdas o Cordones Cósmicos macro que son limites aun no explicables ) en que las partículas
en ese estado no estaban juntas, sino como especie de cuatro cuerdas unidimensionales “que se desplazan en
un espacio - tiempo hiperdimensional”. Otra versión más sofisticada es la “Teoría de las Supercuerdas”, en
que la presentación de la materia es arrollada o compactada sobre sí misma en un espacio decadimensional
(10 dimensiones).

En esa línea la Teoría de Supercuerdas no sólo sería una búsqueda más de TOE (esto es de una teoría del
"todo" o "Theory of Everything"), que sería más ambiciosa que la búsqueda de la GUT ("Grand Unification
Theory") también sería la unificación del conocimiento de la física; en otras palabras la unificación del
conocimiento, porque busca relaciones básicas, fundamentales entre las diversas pautas que muestra la
naturaleza; pero todavía más: se pretende encontrar la explicación sin necesidad de recurrir a experimentos,
partiendo de la idea que éstos, en última instancia lo que aportan son “mediciones convencionales”, de los
fenómenos observados, lo que a la Teoría de Supercuerdas en el campo deductivo. En menos palabras: se
pretende encontrar el principio fundamental jerárquico que gobierna al Universo y condensarlo en una sola
fórmula tan sencilla como lo fue en su tiempo E = Mc2.

Ahora bien, el esfuerzo de la Teoría de Supercuerdas no es sencillo porque al pretender trascender los
límites alcanzados por las teorías antecesoras (pero también complementarias): superfuerza , supersimetría ,
supergravedad , también hay otros límites operacionales propios del instrumental matemático al pretender
con los conceptos de finito e infinito, limitado e ilimitado, así como también para tratar con fenómenos
clásicos y fenómenos “cuantizados”, y con el surgimiento de “anomalías” cuando se trata de “acomodar”
diversas formas de medición dentro de conceptos unitarios, o bien cuando se trata con el tema de las
dimensiones, dado que ciertas ecuaciones trabajan bien cuando se les formula en once dimensiones, o en
cinco, pero no cuando se les maneja en siete o en nueve, por ejemplo; o también para tratar del tema de los
“taquiones” que violarían el principio de la limitación de la velocidad de la luz (en el vacío), o bien de los
hipotéticos "gravitones".

Originalmente la idea de que las concentraciones de materia a nivel subatómico (particular), en realidad
podían ser consideradas como cuerdas o lazos cerrados sobre sí mismos, la formuló el físico de partículas
italiano Gabriel Veneziano en 1960, pero luego la teoría se abandonó. Los físicos John Scharz y Joel Scherk,
la rescatan en 1968 y la reformulan en una ecuación que requiere 36 dimensiones, que luego queda reducida
a 10, de las cuales 4 son conocidas y las 6 restantes - teorizan - han quedado “curvadas sobre sí mismas” en
un punto tan pequeño (10-33cm.) que pasa desapercibido.

Sin embargo es necesario reconocer, al menos, cuatro esfuerzos teóricos previos que sirven de base al
planteamiento de Veneziano:
a) en 1830 el físico inglés Michael Faraday establece la interrelación entre dos fuerzas aparentemente
distintas: la electricidad y el magnetismo,
b) en 1850 el físico alemán Maxwell formula la ecuación que las unifica;
c) en 1921 el matemático alemán Theodor Kaluza decide escribir la ecuación de campo de la gravitación de
Einstein no en cuatro, sino en cinco dimensiones y obtiene de una sola teoría la unificación matemática del
electromagnetismo y la gravedad;
d) finalmente en 1926 el físico sueco Oscar Klein explica que la quinta dimensión planteada por Kaluza no
es visible ni detectable porque se encuentra enrollada sobre sí misma en un punto increíblemente pequeño
que calculó en 10-30cm.

En el desarrollo más aceptado de la teoría (en estas épocas) es debido a John Scharz y Michael Green (1984)
que se plantea que las vibraciones de las cuerdas pueden calcularse en 496 diferentes modos, y esto significa
la existencia de 496 cargas energéticas, las que darían origen, a su vez, en su expresión geométrica, a 496
partículas que al comportarse espacialmente de diferente manera pueden ser medidas algunas y otras aún no.


Las posibilidades de dar comprobación en los aceleradores de partículas a estos cálculos matemáticos
dependen de la cantidad de energía que debe emplearse para su calibración. Para la década de los noventa la
capacidad instalada sólo permite medir partículas de baja carga (no más allá de 100 GeV, -
gigaelectronvoltios), mientras que se calcula que la medición de todas las eventuales 496 partículas
predichas requiere una energía de 1019 GeV (gigaelectronvoltios). Eso significa la reproducción de la
energía existente en el Big Bang, lo que - obviamente - está fuera del alcance de los conocimientos actuales.

A la fecha los físicos que marchan a la cabeza del desarrollo de la teoría son, entre otros: John Schwarz,
Edward Witten, Michael Green, David Gross, John Ellis, Abdus Salam y Steven Weinberg, la mayoría
norteamericanos e ingleses. Independientemente de sus disímiles esfuerzos teóricos, estiman que este es el
esfuerzo más conspicuo de la física en toda la historia y piensan que de lograrse la unificación de la física,
por esta vía (u otras alternas que pueden surgir) se iniciara el verdadero conocimiento del Universo.

En su expresión más sencilla la Teoría de Supercuerdas parte de estos principios:

1) La materia que se observa, las fuerzas que se atraen o repelan la materia, la energía que es intercambiable
con la materia o viceversa, la interrelación entre la energía y materia con el espacio y con el tiempo,
obedecen a una forma de observar, capturar, interrelacionar y medir los aspectos fenoménicos de la
naturaleza. Para cada fenómeno se ha establecido - por convención - medidas que dan cuenta de una
particularidad de ese fenómeno y esto ha dado origen a especializaciones del conocimiento (y
particularmente a especializaciones dentro de la física).

La capacidad de conocer está en relación directa con la capacidad de medir, de comparar y de esta manera se
ha ido cada vez a más profundidad que es lo que en última instancia integra cada fenómeno en su nivel más
básico.

2) Las cuerdas serían objetos de aproximadamente 10-13 centímetros (increíblemente pequeñas, porque si se
les compara con el tamaño de un núcleo atómico serían 1020 más pequeñas que aquellas). Esta cuerdas
estarían cerradas sobre sí mismas, vibrando en diez dimensiones, de las cuales cuatro pueden ser accesadas
por la vía de los fenómenos que producen y las restantes dimensiones no serían accesables. En el proceso de
reconciliación de la teoría de la gravedad al mezclarse con los conceptos de la teoría cuántica
matemáticamente se obtienen expresiones y resultados carentes de sentido (o bien infinitos, o violatorios de
los principios básicos de la física); pero por medio de la introducción de las expresiones matemáticas de las
supercuerdas se obtienen (a partir de 1982) resultados razonables y lógicos y con expresiones finitas.

3) En la teoría hay posibilidad de trabajar con cuerdas con extremos libres, o en cuerdas enrolladas sobre sí
mismas en distancias calculadas en 10-33cms. (longitud de Plank) y esta última versión es la más
promisoria; porque además muestra la característica de que no presenta anomalías al quebrarse la simetría
cuando la teoría pasa por la fase de cuantización. Hasta finales de 1995 los teóricos que trabajan en
supercuerdas no han logrado, sin embargo, tener una sola expresión de la teoría y así hay varias
aproximaciones (E8xE8 ; SO32; como la llaman los físicos) y algunas de estas versiones son “heteróticas” y
otras son “no heteróticas”, pero se piensa que del total de sus versiones de la teoría, en realidad se pueden
reducir a una sola: solo es cuestión de cálculos y se estima que para los primeros años del siglo venidero la
teoría estará terminada.

4) Las cuerdas enrolladas sobre sí mismas vibran, rotan, oscilan y según se capte o mida cualesquiera de
estos fenómenos se está midiendo un comportamiento que se capta como si fuera distinto. Por ejemplo: el
electrón es una cuerda vibrando; un quarks es una cuerda vibrando de otra forma, un gravitón es una cuerda
vibrando de otra manera, y en algunos casos la vibración no es perceptible. Se estaría de frente a materia no
observable pero que sí existe (la materia oscura que lleva el Universo, sería un caso). Se sabe que los quarks,
los leptones se reúnen en familias de tres y no se conoce la razón para que así ocurra, pero con la teoría de
supercuerdas se calcula con sencillez que el número de familias es una propiedad resultante de la forma que
toma la mitad del "número de Euler", en el espacio enrollado de seis dimensiones, lo que para algunos
físicos es una comprobación observacional de la teoría.

5) Un aspecto sorprendente de la teoría es la interrelación de los resultados según los métodos de cálculo.
Así se ha afirmado que la teoría es única pero - por razones no conocidas - se puede obtener cálculos
concretos según sea la forma de aproximación que se emplee para resolver las ecuaciones. Y ¿por qué ocurre
esto? es una pregunta aún sin responder de allí que se haya comenzado a emplear artificios matemáticos
como el esquema de la “teoría de la perturbación” y se esté profundizando más y más en la línea de
desarrollo matemático para entender mejor la realidad que subyase tras la teoría. En última instancia, para
los investigadores el límite es la matemática, el límite de la matemática es su “tractabilidad” y el límite de
esta característica es la mente humana.

La teoría de supercuerdas obliga, como planteo deductivo, a tomar como punto de partida la idea de que el
Universo inicial tenía treinta y seis dimensiones, luego por un proceso de compactación desconocido pasó a
tener diez que también se compactaron en seis y finalmente sólo cuatro son conocidas por la mente humana.
Y a partir de esta aceptación se derivan otras afirmaciones igualmente sorprendentes.

A principios de 1988 el físico inglés Paul C.W. Davies y el periodista científico Julian Brown de la BBC,
entrevistaron a varios físicos partidarios de la teoría de supercuerdas y a otros fuertes opositores a esta.

La crítica más fuerte la hizo el físico de partículas norteamericano Sheldon Glaswow quien - entre otras
afirmaciones - señaló que esta teoría “era el resultado de la desocupación de algunos físicos frente al
problema de la paralización de recursos financieros dedicados a la investigación experimental” y agregó
además que era muy cauteloso para no permitir que en la Cátedra de Física de la Universidad de Harward
penetraran ideas “naive”, “tan contagiosas como el SIDA” a las que eran afectos algunos “ideólogos” de las
supercuerdas (en una alusión directa a los físicos del Instituto Tecnológico de California (Caltech), en la
cual enseña John Schwrz. Sin embargo, dejando de lado el aspecto sarcástico envuelto en la crítica, interesa
rescatar algunas de las ideas de otro fuerte opositor, el físico norteamericano de partículas Richard Feymann
quien plantea estas observaciones:

1.- “La elaboración teórica en la física está degenerándose” y en particular “la teoría de supercuerdas carece
de sentido”. Cuando una idea no calza con los experimentos se debe desechar, pero no ocurre así con esta
teoría, que se arregla para que luego con explicaciones “a posteriori se cocina una explicación”.

2.- Si se utiliza un método para que ofrezca seis dimensiones ocultas, porque, no, por ejemplo “siete”; eso
significa falta de rigor matemático.

3.- Si hay un “gran principio fundamental debajo de todo”, como plantea la teoría, debe demostrarse
empíricamente; si no siquiera debe formularse, eso ya no es física, pero cada quien es libre de hacer lo que
desee....

4.- En la física teórica la idea es probarse a uno mismo, en el menor tiempo posible que una teoría es errada;
pero aquí de lo que se trata es de tomarse toda la libertad para reacomodar las explicaciones cuando las
pruebas no confirman los supuestos teóricos.

5.- El hecho de que la teoría permita dejar de lado el problema de resultados infinitos, cuando se trata de
unificar las otras fuerzas con la gravedad, y que ha sido tomado como “prueba de la verdad de la teoría”, no
es suficiente, porque hay muchas y no una sola forma de obtener esos resultados.

6.- En cualquier rama de los conocimientos físicos bien establecidos, en los que la teoría se confirma con la
experiencia es posible hacer “predicciones de carácter local”; pero en el caso del inicio del Universo no es
posible entenderlo en su totalidad, aplicando todas las leyes conocidas, porque la cosmología debe agregar
algo que no está teorizado y comprobado: ¿cómo comenzó todo?.

7.- La razón de lo anterior es porque quizá las leyes de la física son incompletas, o quizá porque las leyes de
la física cambian con el tiempo; que la fuerza de gravedad - por ejemplo - posea como propiedad que el
inverso del cuadrado de la distancia (ley de Newton) no sea inalterable, sino que se aumenta en razón de
como operaba desde el inicio del Universo.

8.- Es posible que todo el conocimiento físico debe completarse con algún planteamiento que permita
conocer como comenzó el Universo, pero eso es un aspecto externo a las leyes de la física. Y bien puede ser
que las leyes conocidas simplemente sean “incompletas” o estén parcialmente formuladas; pero lo cierto es
que si se las formule para que sean utilizables en todo tiempo con la historia del Universo, no sea necesario,
entonces, agregar “ningún planteamiento externo”.

9.- Uno de los problemas que más confusión causan es la aplicación de planteamientos matemáticos para
referirse a las cosas reales, al Universo, por ejemplo. Y este problema es que al referirse a relaciones
matemáticas que se comprueban mediante la física, aflora una duda: ¿existen “realmente estas relaciones
matemáticas” y de ser así, en dónde?
La física describe las leyes que rigen el Universo: observa, analiza y predice los fenómenos que se producen
en el mismo. La matemática que enmarca, con su lenguaje propio, las construcciones mentales y analiza sus
relaciones, pero sin interés aparente por los objetos y los fenómenos del mundo observable. Pero no siempre
se ha dado esa tajante división entre física y matemática.

A partir de Galileo, la matemática ha constituido el lenguaje de la física. Más aún. Desde el siglo XVII y
hasta el siglo pasado, una y otra ciencia han progresado de la mano. Newton, Leibniz, Euler, Lagrange,
Hamilton y Gauss entre otros, hicieron importantes contribuciones en física y en matemáticas. Newton, por
ejemplo, inventó el análisis con el fin de disponer de un instrumento adecuado para describir el movimiento
de los cuerpos. Pero, mediado el siglo XIX, las matemáticas se refugian cada vez más en la abstracción pura,
y las dos ciencias empiezan a evolucionar por caminos separados.

En el primer tercio del siglo XX aparecen dos grandes teorías físicas: la relatividad y la mecánica cuántica.
Ninguna de las dos precisó crear un andamiaje matemático para su descripción. Se sirvieron de estructuras
geométricas preexistentes. La teoría de la relatividad se apoyó en el cálculo tensorial; la física cuántica, en la
teoría de los espacios de Hilbert. Pese a su origen puramente abstracto, la aplicación de estas matemáticas
dio lugar a innumerables predicciones, que se observaron luego en la naturaleza.

Se vino siguiendo en ese proceder hasta los años ochenta, en que surge una nueva interrelación, atisbada, sin
embargo, ya en los años cuarenta, en los albores de la teoría cuántica de campos. El giro consistirá en que
las estructuras del lenguaje de las teorías cuánticas de campos pueden generar y desarrollar nuevos aspectos
de la matemática. La topología será la rama principalmente implicada, y corresponderá a las teorías
cuánticas de campos topológicas el papel protagonista.

La topología estudia propiedades globales de los conjuntos de puntos que son invariantes bajo
deformaciones continuas.

Ahora bien, las leyes de la física se definen en un espacio y un tiempo continuos. La física debe recurrir,
pues, a un sustrato similar a la topología. Sin embargo, las leyes de la física suelen tener un carácter local,
que se contrapone al carácter global de las propiedades topológicas. Parece, por tanto, sorprendente
cualquier relación entre la física y la topología.

Pero la hay. El origen de esa relación se inicia en 1959, cuando Yakir Aharanov y David Bohm propusieron
un experimento del que se deduce que las propiedades globales del espacio son importantes a la hora de
describir procesos de naturaleza cuántica (que desde su observación experimental en 1960 por
R.G.Chambers se denomina efecto Abaranov-Bohm) que no tenía análogo en la física clásica. Considérese
la situación en que un haz de electrones se bifurca, pasando por ambos lados de un solenoide perpendicular
al plano donde esas partículas se propongan, e incide sobre una pantalla. Comparemos las señales
producidas por los electrones al colisionar con la pantalla, llamadas franjas de interferencia, cuando por el
solenoide circula una corriente eléctrica y cuando no. Observaremos que se produce un desplazamiento de
las franjas de interferencia cuando se conecta el solenoide.

La física clásica carece de explicación para el efecto Aharanov-Bohm. Ocurre que, si el solenoide es muy
largo, crea un flujo de campo magnético a lo largo de la figura, de suerte tal que el campo eléctrico y el
magnético son nulos en la zona por donde se propagan los electrones. De acuerdo con las ecuaciones de
Maxwell, las ecuaciones clásicas del electromagnetismo, si ambos campos son nulos, las partículas cargadas
-los electrones portan carga negativa- no sufren ningún efecto. Afirmación que se ve desmentida por la
observación experimental. Para explicar el efecto Aharanov-Bohm hemos de acudir a la física cuántica.

Del efecto Aharanov-Bohm se obtienen dos conclusiones que marcan la pausa de la relación entre física
cuántica y topología. Por un lado, la conveniencia de generalizar conceptos físicos en situaciones donde la
topología del espacio no es sencilla: dicho con precisión técnica, el potencial electromagnético corresponde
a una conexión de un fibrado principal. Por otro lado, la física cuántica conduce a consecuencias observables
gracias a las característica topológicas del espacio; para un flujo magnético dado, el desplazamiento de las
franjas de interferencia en el efecto Aharanov-Bohm es independiente de la extensión de la zona excluida,
siempre que ésta no sea nula, o lo que es lo mismo, la topología del espacio es la responsable de que se
observe dicho desplazamiento.

Tras el descubrimiento del efecto Aharanov-Bohm, la incidencia de la topología y de la geometría
diferencial en el avance de la física ha sido determinante, desde los monopolos magnéticos hasta la teoría de
cuerdas. El modelo estándar de la física que describe tres de las interacciones fundamentales de la naturaleza
-fuerte, débil y electromagnética- está formulado en términos de “teoría de aforo”, una generalización del
electromagnetismo. Las teorías de aforo generalizan la simetría de aforo antes expuesta. Esta generalización
asocia un grupo a dicha simetría.

La cuarta de las fuerzas fundamentales, la interacción gravitatoria, se ha resistido todavía a una descripción
cuántica. La formulación clásica de la gravedad puede entenderse también como una teoría de aforo. Pero su
formulación cuántica constituye uno de los grandes problemas a los que se enfrenta la física teórica. Para
resolverlo se han abierto dos vías de investigación:
a) la revisión de los métodos de estudio de la teoría cuántica de campos ,
b) la profundización del estudio de las teorías de cuerdas y de supercuerdas. Si la solución se hallara
escondida en la segunda vía, tendríamos un marco unificado de las cuatro interacciones fundamentales.
Quizá la raíz última de la dificultad estriba en que no se dispone de las estructuras matemáticas adecuadas.

Hemos insistido en el protagonismo desempeñado por las teorías cuánticas de campos topológicas en la
nueva relación entre la física y las matemáticas. El desarrollo de la física teórica había venido utilizando el
lenguaje de una matemática preexistente. Este lenguaje había permitido deducir consecuencias cuya
verificación experimental instó el diseño de grandes experimentos, a través de los cuales, a su vez,
emergieron y crecieron muchas disciplinas dentro de la física y de la ingeniería.

En la década de los ochenta se cambian los papeles: las teorías cuánticas de campos topológicas (física)
crean un lenguaje que permite obtener muchas consecuencias en el marco de la topología ( matemática).
Este lenguaje comienza a denominarse “matemáticas teóricas”. La demostración rigurosa de las
consecuencias que origina constituye al análogo a la verificación experimental aludido anteriormente. El
desarrollo ulterior de otras disciplinas de la física y de la ingeniería se corresponderá con el desarrollo que se
produzca en las matemáticas encaminado a dotar al nuevo formalismo del rigor adecuado.

Aunque se está en el comienzo de esta nueva forma de evolución, llegan ya los primeros resultados en tal
dirección. Quizás en el futuro habrá un nuevo intercambio de papeles, y el nuevo lenguaje matemático,
construido a partir de la abstracción física, sea el marco adecuado no sólo para establecer con rigor la teoría
cuántica de campos, sino también para establecer los fundamentos de las teorías de cuerdas o de la teoría
cuántica de la gravedad. Cualquier adelanto en esos dominios supondría un gran avance en el estudio de la
unificación de las cuatro interacciones fundamentales.

1) Nació en un estado de once dimensiones en el que no se distinguirían fuerza y materia, algo así como un
“estado puro de energía uncadimensional”.

2) Al disiparse, algunas de las dimensiones se plegaron sobre sí mismas creando unas estructuras que
llamamos materia: “las partículas” y otras que serían las manifestaciones visibles de la geometría
subyacente: las fuerzas de la naturaleza: “las ondas”.

3) Para que la heptasfera se rompiera y revelara las diez dimensiones espaciales se requirió de una energía
mayor que la que podría exhibir la gran unificación de fuerzas.

4) Se requirió la colosal energía de la propia creación.

HACIA LA TEORÍA CUÁNTICA DE CAMPOS

La física describe las leyes que rigen el Universo: observa, analiza y predice los fenómenos que se producen
en el mismo, pero precisa, de la matemática que enmarca con su lenguaje propio las construcciones mentales
que prevén los cosmólogos y analiza sus relaciones, pero sin interesarse por los objetos y los fenómenos del
mundo físico, porque ese mismo lenguaje matemático puede emplearse bien para describir un fenómeno
observado, bajo características conocidas; o bien para describir un fenómeno hipotético pero con
características muy diferentes.

A partir de Galileo, la matemática ha constituido el lenguaje de la física. Más aún. Desde el siglo XVII y
hasta el siglo pasado, una y otra ciencia han progresado de la mano. Newton, Leibniz, Euler, Lagrange,
Hamilton y Gauss entre otros, hicieron importantes contribuciones en física y en matemáticas. Newton, por
ejemplo, inventó el análisis con el fin de disponer de un instrumento adecuado para describir el movimiento
de los cuerpos. Pero, mediado el siglo XIX, las matemáticas se refugian cada vez más en la abstracción pura,
y las dos ciencias empiezan a evolucionar por caminos separados.

En el primer tercio del siglo XX aparecen dos grandes teorías físicas: la relatividad y la mecánica cuántica.
Ninguna de las dos precisó crear un andamiaje matemático para su descripción. Se sirvieron de estructuras
geométricas preexistentes. La teoría de la relatividad se apoyó en el cálculo tensorial; la física cuántica, en la
teoría de los espacios de Hilbert. Pese a su origen puramente abstracto, la aplicación de estas matemáticas
dio lugar a innumerables predicciones, que se observaron luego en la naturaleza.

Se vino siguiendo en ese proceder hasta los años ochenta, en que surge una nueva interrelación, atisbada, sin
embargo, ya en los años cuarenta, en los albores de la teoría cuántica de campos. El giro consistirá en que
las estructuras del lenguaje de las teorías cuánticas de campos pueden generar y desarrollar nuevos aspectos
de la matemática. La topología será la rama principalmente implicada, y corresponderá a las teorías
cuánticas de campos topológicas el papel protagonista.

La topología estudia propiedades globales de los conjuntos de puntos que son invariantes bajo
deformaciones continuas.
Ahora bien, las leyes de la física se definen en un espacio y un tiempo continuos. La física debe recurrir,
pues, a un sustrato similar a la topología. Sin embargo, las leyes de la física suelen tener un carácter local,
que se contrapone al carácter global de las propiedades topológicas.


Del efecto Abharanov-Bohm se obtienen dos conclusiones que marcan la pausa de la relación entre física
cuántica y topología. Por un lado, la conveniencia de generalizar conceptos físicos en situaciones donde la
topología del espacio no es sencilla: dicho con precisión técnica, el potencial electromagnético corresponde
a una conexión de un fibrado principal. Por otro lado, la física cuántica conduce a consecuencias observables
gracias a las característica topológicas del espacio; para un flujo magnético dado, el desplazamiento de las
franjas de interferencia en el efecto Abharanov-Bohm es independiente de la extensión de la zona excluida,
siempre que ésta no sea nula, o lo que es lo mismo, la topología del espacio es la responsable de que se
observe dicho desplazamiento.

Tras el descubrimiento del efecto Abharanov-Bohm, la incidencia de la topología y de la geometría
diferencial en el avance de la física ha sido determinante, desde los monopolos magnéticos hasta la teoría de
cuerdas. El modelo estándar de la física que describe tres de las interacciones fundamentales de la naturaleza
-fuerte, débil y electromagnética- está formulado en términos de “teoría de aforo”, una generalización del
electromagnetismo. Las teorías de aforo generalizan la simetría de aforo antes expuesta. Esta generalización
asocia un grupo a dicha simetría.

La cuarta de las fuerzas fundamentales, la interacción gravitatoria, se ha resistido todavía a una descripción
cuántica ( aspecto que se inicia fuertemente en el Tercer Milenio ) . La formulación clásica de la gravedad
puede entenderse también como una teoría de aforo. Pero su formulación cuántica constituye uno de los
grandes problemas a los que se enfrenta la física teórica. Para resolverlo se han abierto dos vías de
investigación: la revisión de los métodos de estudio de la teoría cuántica de campos y la profundización del
estudio de las teorías de cuerdas y de supercuerdas. Si la solución se hallara escondida en la segunda vía,
tendríamos un marco unificado de las cuatro interacciones fundamentales. Quizá la raíz última de la
dificultad estriba en que no se dispone de las estructuras matemáticas adecuadas.

Aunque se está en el comienzo de esta nueva forma de evolución, llegan ya los primeros resultados en tal
dirección. Quizás en el futuro habrá un nuevo intercambio de papeles, y el nuevo lenguaje matemático,
construido a partir de la abstracción física, sea el marco adecuado no sólo para establecer con rigor la teoría
cuántica de campos, sino también para establecer los fundamentos de las teorías de cuerdas o de la teoría
cuántica de la gravedad. Cualquier adelanto en esos dominios supondría un gran avance en el estudio de la
unificación de las cuatro interacciones fundamentales y esto es de primordial importancia para entender
cómo se inicia nuestro Universo. Ha de advertirse-sin embargo-que conforme los físicos se adentren en este
mundo, la cosmología cuántica se irá haciendo mas y mas lejana al lego e incluso a los propios físicos
acostumbrados a la visión, al lenguaje y al rigor de la física clásica ,que apenas
ha logrado asimilar los rudimentos de la relatividad y la cuántica. .

A continuación se examina el estado de situación de la búsqueda por vía de la Teoría de Cuerdas.


NUEVA DUALIDAD

A inicios de la década d los 90, bajo examen los físicos echaron las campanas al vuelo, cuando la “teoría de
cuerdas” ganó predicamento en su calidad de candidata a TOE. Los físicos la habían elaborado a partir de la
idea de que los objetos más elementales del Universo son unas cuerdas inimaginablemente finísimas cuyas
ondulaciones generan todas las partículas y fuerzas del Universo. Estos bucles o segmentos de cuerda miden
unos 10-33 centímetros de largo y vibran, como las cuerdas de un violín, en muchos modos diferentes. A
cada modo vibracional le corresponde una energía fija, razón por la cual, según las leyes de la mecánica
cuántica, cabe considerarlos partículas. Pero la teoría de cuerdas pronto se topó con barreras matemáticas: se
fragmentó en cinco teorías competidoras.

Una peculiar simetría nueva, la dualidad, va haciendo que las diferentes cuerdas se entrelacen. La dualidad
está redefiniendo la idea que los físicos tienen de qué es una partícula fundamental, o cuerda. Ahora –de
acuerdo con las formulaciones teóricas - parece que los objetos elementales están hechos de las mismas
partículas que crean. Uno de los mas conspicuos físicos cuánticos que en esa época se consideraba el más
representativo es Eddy Witten , físico y matemático cuántico norteamericano, una “superestrella “ de la
física en la década de los noventa ,quien no sólo cree que la dualidad nos llevará a la TOE (Teoría del Todo)
, sino que podría además aclarar por qué el Universo es como es.
A criterio de Witten: “Nos encaminamos hacia una explicación de la mecánica cuántica” y no se pueden oír
muchas voces críticas: la complicación matemática que encierra la teoría de cuerdas ha dejado fuera del
ruedo a la mayoría de físicos y matemáticos” . En efecto , al propio tiempo, el mundo que emerge de la
dualidad se está volviendo aún más raro. Las cuerdas se convierten con facilidad en agujeros negros y
viceversa; dimensiones nuevas se amplifican en diferentes dominios; y no sólo fluctúan cuerdas por los
caminos del Universo, sino también burbujas y otras membranas. La multitud de conexiones, creen los
investigadores, apunta a una entidad más profunda. -la TOE- que -se presume - lo explicaría todo”.

Aunque inicialmente Witten , quien es periodista político además, y actualmente enseña en el Instituto de
Física Avanzada de Princeton, formula una teoría de cuerdas, buscando reunir las diversas formulaciones
existentes en una sola, que denomina Teoría M , que significaría que las cuerdas pueden ser solo cuerdas,
pero también Membranas ( comúnmente llamadas Branas ) que obedecerían a una fuerza superpoderosa
(TOE) .

La Teoría M ha sido objeto de mucho trabajo teórico, pero igualmente de mucha incomprensión. Combina
en una sola formulación teórica nada menos que todas las teorías anteriores y simultaneas en el tiempo
relacionadas con las nociones iniciales de la teoría de cuerdas, que luego se transforma en teoría de
supercuerdas y en teoría de supergravedad, imaginadas en once dimensiones.

La palabra “dual” -que está desplazando rápidamente a “súper”- tiene para los físicos muchas connotaciones
diferentes. A grandes rasgos, se dice que dos teorías son duales si, aparentemente disímiles, aportan iguales
predicciones físicas. Por ejemplo, si se intercambian todas las magnitudes eléctricas y magnéticas de las
ecuaciones electromagnéticas de Maxwell, se obtiene, nominalmente una teoría distinta. Pero si se admite
que, además de las cargas eléctricas, hay en el mundo cargas magnéticas (como un polo norte aislado de una
barra iman-polo norte aislado de una barra imantada), las dos teorías resultan ser exactamente la misma, o
duales.

Más concretamente, la dualidad hace que sean intercambiables los objetos elementales y los compuestos:
que una partícula u otra entidad, sea fundamental o conste de entidades aún más fundamentales depende del
punto de vista. Cada perspectiva acaba por dar los mismos resultados físicos.

El concepto de dualidad ha salido de las teorías de campo, pero, la “dualidad es mucho más natural en
teorías de cuerdas”. Más versátil, también. La dualidad puede unir cuerdas de tipos diferentes, existentes en
dimensiones diferentes y en espacio-tiempo de morfologías diferentes. Gracias a estos logros, la teoría de
cuerdas está superando sus limitaciones y elevándose a la categoría de TOE.

En las fases precoces de su evolución, la teoría de cuerdas había fallado en su afán por devenir teoría
unificada debido a los muchos tipos de cuerdas que se proponían y la embarazosa multiplicidad de
respuestas que daba. Esta abundancia tiene su fuente en otra peculiaridad de la teoría de cuerdas: sólo es
coherente si las cuerdas habitan originalmente un espacio-tiempo de 10 dimensiones.

Por desgracia para los teóricos de las cuerdas, las seis dimensiones extra se pueden enrollar de múltiples
maneras diferentes. Cada uno de esos espacios comprimidos ofrece una solución diferente para la teoría de
cuerdas, con una imagen propia del mundo tetradimensional. Un tipo de dualidad, la simetría especular,
encontrada a finales de los años ochenta ha ayudado a aminorar el problema mediante la fusión de algunas
soluciones alternativas. La simetría especular descubrió que las cuerdas de dos espacios enrollados y
diferentes ofrecen a veces las mismas partículas.

El tamaño al que se encoge una dimensión es bastante similar en la teoría de cuerdas, a otro parámetro: la
intensidad con que interaccionan las partículas. Así como los espacios grandes pueden tener la misma física
que los pequeños, quizás una teoría de cuerdas con un acoplamiento grande podría dar los mismos
resultados que otra que tenga uno pequeño. Esta conjetura relacionaba las teorías de cuerdas de manera
análoga a como la cualidad actuaba en la teoría de campos.

Además, de lejos, las cuerdas parecen partículas; de ahí que la dualidad en la teoría de cuerdas comporte la
dualidad en la teoría de campos, y viceversa. Cada vez que se ha puesto a prueba la dualidad en uno y otro
caso, la ha pasado brillantemente y ha servido para acercar más los dos dominios. En el evento de que los
esfuerzos de búsqueda de Toe dentro de la Teoría de Cuerdas, en su versión más avanzada, no rinda los
resultados esperados, se abre otra vía de búsqueda con las Teorías de Gravitación Cuántica.


GRAVITACIÓN CUÁNTICA


La gravitación cuántica versa sobre el problema del espacio y el tiempo. Con la relatividad general, Einstein
nos proporcionó no sólo una teoría de la gravitación, sino una teoría de la naturaleza del espacio y el tiempo
-una teoría que echó abajo la concepción newtoniana anterior-. El problema de la gravitación cuántica es
cómo combinar la comprensión del espacio y el tiempo que nos transporten más allá de lo que nos ha
enseñado la teoría de la relatividad.

Pero, yendo aún más allá, una teoría cuántica de la gravedad debe ser una teoría cosmológica. Como tal,
debe también decirnos cómo describir la totalidad del Universo desde el punto de vista de los observadores
que viven en él -pues por definición no hay observadores fuera del Universo-. Esto conduce directamente a
las principales cuestiones con las que nos estamos debatiendo, porque parece muy difícil saber cómo podría
extenderse la teoría cuántica de átomos y moléculas a una teoría del Universo en su totalidad. Como nos
enseñaron Bohr y Heisenberg, la teoría cuántica parece tener sentido sólo cuando se entiende como la
descripción de algo pequeño y aislado del observador -el observador está en el exterior-.

Por esta razón, la fusión de la teoría cuántica y la relatividad en una única teoría debe también afectar
nuestra comprensión de la teoría cuántica. Más generalmente, para resolver el problema de la gravedad
cuántica tendremos que dar con una buena respuesta a la siguiente cuestión: ¿cómo podemos nosotros, como
observadores que vivimos dentro del Universo, elaborar una descripción completa y objetiva del mismo?

Según el físico de partículas norteamericano Lee Smolin : “La mayor parte del trabajo científico se ha
centrado en el problema de la gravedad cuántica problema, especialmente única área de la física que
conozco donde uno puede tratar cada día con cuestiones filosóficas profundas a la vez que se dedica al oficio
propio del físico teórico, que es hacer cálculos para intentar hacer predicciones sobre la naturaleza a partir de
nuestras representaciones teóricas. También me gusta el hecho de que uno debe tener un amplio
conocimiento de muchas cosas diferentes para meditar sobre este problema. Por ejemplo, es probable que la
gravedad cuántica sea relevante en la interpretación de datos astronómicos, y también es probable que la
nueva teoría que estamos intentando construir haga uso de nuevas ideas y estructuras matemáticas que no
hemos hecho sino comenzar a descubrir. Así pues, aunque prácticamente no he trabajado en otro problema
durante casi veinte años, nunca me he aburrido”.

Afirma Smolin: “ he estado trabajando con varios amigos en una nueva aproximación para combinar la
relatividad con la mecánica cuántica. La hemos denominado “gravedad cuántica no perturbativa”. (también
se la cita como Teoría de Bucles) que permite investigar las implicaciones de la fusión de la relatividad con
la teoría cuántica de manera más profunda y exhaustiva. Todavía no hemos terminado, pero estamos
haciendo progresos constantes, y recientemente hemos conseguido extraer de la teoría algunas predicciones
experimentales. Las predicciones que hemos podido hacer hasta ahora no pueden ser comprobadas, porque
se refieren a la geometría del espacio a escalas de un orden de magnitud veinte veces menor que el del
núcleo atómico. Pero estamos más cerca de una solución del problema de la que nadie ha estado antes (y,
tengo que decirlo, más cerca de lo que yo esperaba llegar en toda mi vida).
En este trabajo hemos combinado una muy bella formulación de la teoría de la relatividad general de
Einstein, descubierta por mi amigo Abhay Ashtekar, con algunas ideas sobre cómo construir una teoría
cuántica de la geometría espaciotemporal en la que todo se describe en términos de bucles . Esto es, más que
describir el mundo diciendo dónde está cada partícula, lo describimos en términos de entrelazamiento de
bucles” .

Esta teoría de “Enlace o entrelazamiento de bucles microdimensionales) fue propuesta por el físico cuántico
italiano Carlos Rovelli , el físico uruguayo Rodolfo Gambini y por Lee Smolin y
afirma que en la escala de Planck, que es veinte potencias de diez más pequeña que un núcleo atómico, el
espacio aparece como una red o madeja de bucles discretos. De hecho, estos bucles son algo así como los
átomos de los que estaría compuesto el espacio.

La teoría afirma que las energías de los posibles estados de un átomo toman valores discretos- cuando se
sondea la estructura del espacio a esta escala de Planck, y por tanto se encuentra teóricamente que los
valores posibles del área de una superficie o del volumen de una región se miden también en unidades
discretas. Las unidades discretas serian mas o menos las mismas que se utilizan en física clásica y que
estamos acostumbrados a usar en la vida corriente, pero aquí serian “continuas” no separadas, fraccionadas,
interrumpidas, lo que los físicos conocen como “ unidades discretas, término que también aplican a las
unidades de tiempo).

Lo que a nuestra escala macro parece una geometría espaciotemporal lisa es el resultado de un enorme
número de estos bucles elementales entrelazados, igual que un trozo de tela aparentemente liso está en
realidad compuesto de muchos hilos individuales, y por eso es que
la imagen de los bucles es enteramente una descripción en términos de relaciones. No hay una geometría
espacial preexistente, ni puntos de referencia fijados; todo es dinámico y relacional. Esta es la manera de
entender la geometría del espacio que enseñaba Einstein (como algo relacional y dinámico) no fijado o dado
a priori.
De acuerdo con Smolin: “ Valiéndonos de esta imagen hemos podido trasladar esta idea a la teoría cuántica,
porque, en efecto, la idea más importante que hay detrás de los avances de la física y la cosmología del siglo
XX es que en el nivel fundamental las cosas no tienen propiedades intrínsecas; todas las propiedades son
relaciones entre cosas. Esta es la idea básica de la teoría de la relatividad general de Einstein, pero su
historia es más larga; se remonta como mínimo al siglo XVII con el filósofo Leibniz, que se oponía a las
idea de Newton sobre el espacio y el tiempo, porque para Newton el espacio y el tiempo eran entidades
absolutas, mientras que Leibniz quería entenderlos como aspectos de las relaciones entre cosas. Para mí, esta
lucha entre quienes quieren un mundo hecho de entidades absolutas y quienes quieren un mundo hecho sólo
de relaciones es un tema clave en la historia de la física moderna. En esto no soy imparcial. Pienso que
Leibniz tenía razón, y que lo que está sucediendo en la ciencia de hoy puede contemplarse como la victoria
de los relacionistas” .

Y agrega: “ En efecto, en los últimos años me he dado cuenta de que el punto de vista relacional puede
inspirar el tratamiento de otros problemas de la física y la astronomía, entre ellos el problema fundamental
de la física de partículas, que es dar cuenta de todas las masas y cargas de las distintas partículas
elementales. He llegado a la conclusión de que este problema está conectado también con dos cuestiones
básicas sobre las que la gente se ha estado interrogando durante años. La primera es la siguiente: ¿por que
las leyes de la física y las condiciones del Universo son tales que hacen posible la existencia de seres vivos?
La segunda cuestión está estrechamente relacionada con la primera: ¿por qué, después de tanto tiempo desde
su formación, está el Universo tan lleno de estructuras? Más allá incluso del fenómeno de la vida, es un
hecho singular que nuestro Universo parece haber evolucionado, más que hacia un estado uniforme y
aburrido de equilibrio térmico, hacia un estado lleno de estructura y complejidad a virtualmente todas las
escalas, de la subnuclear a la cosmológica”.

El cuadro que resulta de la relatividad y la teoría cuántica , en las visiones de Smolin, Rovelli, Gambini entre
otros muchos físicos que buscan cuantizar la teoría de la relatividad y buscan asomarse detrás del “ Muro de
Plank” , es decir a lo que habría ocurrido antes del nacimiento o eclosión del Universo actual, es el de un
mundo concebido como un mundo de relaciones.
Así, el cuadro jerárquico newtoniano, en el que átomos con propiedades fijas y absolutas se mueven sobre
un fondo fijo de espacio y tiempo, dejaría de ser cierto ,lo que no significa que el atomismo o el
reduccionismo sean incorrectos, pero sí –en esta nueva propuesta , hay que entenderlos de una manera más
sutil.

La gravedad cuántica, afirma Smolin- “… hasta donde podemos decir, va aún más allá, pues nuestra
descripción de la geometría del espaciotiempo como un tejido de bucles y nudos es una bella expresión
matemática de la idea de que las propiedades de cualquier parte del mundo están determinadas por sus
relaciones y su ligazón con el resto del mundo… y , a medida que desarrollábamos esta descripción,
comencé también preguntarme: sería posible extender la filosofía básica subyacente a otros aspectos de la
naturaleza, más allá de la simple descripción del espacio y el tiempo. Más concretamente, comencé a
preguntarme: ¿ si el mundo como un todo podría entenderse de una manera más relacional que en el cuadro
tradicional, en el que todo está determinado por leyes de la naturaleza fijas…?

Para comprender la reflexión de Smolin hay que pasar del mundo real conocido a uno nuevo y es que
solemos imaginar que las leyes de la naturaleza están fijadas, de una vez y para siempre, por algún principio
matemático absoluto, y que gobiernan el devenir de los acontecimientos actuando al nivel de las partículas
más pequeñas y fundamentales y es que hay buenas razones para creer que las fuerzas fundamentales
deberían actuar sólo sobre las partículas elementales, pero en la física de partículas se asume también otra
cosa: que hay mecanismos o principios cuyas leyes se expresan realmente en la naturaleza, pero que se
aplican sólo a escalas increíblemente pequeñas, mucho menores que las del núcleo atómico.

Concluye Smolin. “ Un ejemplo de tales mecanismos es lo que se llama “ruptura espontánea de simetría”.
Dado que la elección de las leyes condiciona el Universo en su totalidad, comenzó a extrañarme que los
mecanismos que seleccionan las leyes no estuviesen de algún modo influenciados por la historia o la
estructura del Universo a muy gran escala. Pero, para mí, lo que constituye una auténtica bofetada a la idea
de que la elección de las leyes que gobiernan la naturaleza está determinada sólo por mecanismos que actúan
a las escalas más pequeñas es el fracaso espectacular de la teoría de supercuerdas” .



LÍMITE: DETERMINISMO - INDETERMINISMO.

Las reglas de la física cuántica lo dominan todo, pero sus efectos visibles dependen de la escala en que se
haga - por ejemplo -un experimento. En el reino micro el comportamiento indeterminista gobierna. En el
reino macro, desde una milésima de un milímetro en adelante, los efectos desaparecen y el comportamiento
es como lo describe la física clásica: familiar y rutinario, pero que sucede cuando se mezclan el mundo de lo
macro y el mundo del o micro. A eso alude ,justamente, el célebre experimento teorico conocido como “
Caja del gato de Schrödinger ” : en una caja hay un gato encerrado con una pastilla de cianuro que se activa
por medio de un dispositivo gobernado por un único átomo radioactivo .Si este se desintegra mata al gato.

Hay que entender de primero que la radiación sigue un proceso cuántico, esto es las reglas de la
probabilidad; así es posible saber que el mecanismo se activará, pero no cuando lo hará. Si se abre la caja, de
acuerdo con las reglas cuánticas el átomo estará en un estado de superposición ( se desintegra y/o no se
desintegra). Pero al observarlo el efecto ya no es cuántico sino acorde con las reglas físicas clásicas, el
átomo está desintegrado o no; por lo tanto el gato estará muerto o vivo; no en una situación intermedia.

1.- El Gato de Schorodinger : En 1935 Erwin Schrödinger propone que imaginemos un sistema integrado
por una caja cerrada que contiene un gato y una botella con una sola partícula radiactiva con un 50% de
probabilidades de desintegrarse en un tiempo dado . El sistema tiene –además-. un dispositivo que al
desintegrarse la única partícula se desintegra a su vez , rompiendo la botella y causando la muerte del gato.
Todo este sistema está sometido, a su vez, a las leyes cuánticas: así ninguno de los componentes (gato,
partícula, botella) pueden separarse, están ligados entre ellos. La única forma de separar los componentes es
hacer una observación ( medición) del sistema imaginado. Según la interpretación cuántica de Copenhague,
en el gato subsisten dos estados a la vez: gato vivo y gato muerto, pero si abrimos el sistema para observar
resulta que colapsa uno de los estados y por ellos nos encontraremos al gato vivo o al gato muerto (no los
dos estados superpuestos. Y esto obedece según esta interpretación, al hecho de que la observación de los
estados cuánticos entrelazados, obedecen a una propiedad cuántica llamada “superposición” de estado que
existe probabilísticamente . Sin embargo al abrir el sistema basta la observación para que la función de onda
colapse y el gato lo encontremos vivo o muerto ya no en estado de superposición probabilística.
A ese celebre experimento se le había dado otra interpretación más asombros aun, debida al físico
norteamericano Hugh Everett, quien en 1957 postula su teoría de los “Universos Paralelos” , que explica que
a todos los eventos que se producen en nuestro Universo, corresponden eventos iguales pero distintos en
comportamiento en otros universos paralelos. Consecuentemente, para la paradoja del Gato de Schorodinger
,Everett explica que en todo punto de la vida del gato hay ramificaciones que suceden en un universo, otras
en otro universo y no pueden superponerse en un único Universo ( el nuestro que observamos) porque se da
el fenómeno de la decoherencia cuántica. Para Everett hay un gato en estado vivo en el Universo X y un
gato en estado muerto en el Universo B.

El fenómeno de la decoherencia cuántica es , a su vez, una postulación teórica debida al propio
Schorodinger y afirma que las partículas son tratadas como ondas que se comportan según la Ecuación de
Schorodinger y el comportamiento de tales ondas de probabilidad es un comportamiento que se encuentra en
contradicción con los postulados de la mecánica clásica dado que en esa rama de la física, las partículas no
presentan fenómenos típicos de las ondas como la interferencia. Justo la Ecuación de Schorodinger busca
explicar de qué manera las partículas cuánticas pueden conformar elementos macros que si se comportan de
manera clásica y pueden ser medidos sin problema alguno.


Aunque el experimento teorico del Gato de Schorodinger viola el sentido común hay muchos experimentos
de este tipo que solo pueden explicarse por la “superposición de estados” (esto es por la indeterminación de
acuerdo a las reglas familiares y rutinarias). De acuerdo con el argumento de Schrödinger, en todo momento
- en la caja: átomo y gato están en estado superpuesto; pero al abrir la caja la situación cambia porque hay
una intervención de parte del observador que entonces “congela la función de onda”.

Ahora bien para Schrorödinger hay una transición entre lo que se observa al abrir la caja (operan las reglas
de la física clásica) y entre lo que en realidad ocurre dentro de ella (operan las reglas de la física cuántica).
Asimismo señala ,acudiendo a la Ecuacion que lleva su nombre, que hay una fase de transición entre uno y
otro comportamiento, o lo que es lo mismo, entre una y otra escala.

La pregunta es: ¿Qué es lo que causa la transición y a que escala sucede? .Este experimento hipotético y las
elucubraciones de su autor fueron formulados en 1935; pero el experimento sobre el que hay innumerables
formas de explicarlos en la literatura , se modifica en 1996 en la Oficina de Medidas del Gobierno Federal
Norteamericano, en donde Christopher Monroe y David Wineland hicieron este experimento con estos pasos
sucesivos:
1.-Confinaron un ion único (un átomo al que se removió el electrón; esto es un catión de berilio), lo
congelaron a cero absoluto para poder controlarlo y lo apuntaron con un disparador bien calibrado de luz de
láser (A) y lo dejaron en un estado de superposición interna calentándolo y enfriándolo sucesivamente.
2.- Luego apuntaron otra luz de láser (B) directo al ion y calibraron los efectos de ambos láser a una
distancia de 11 veces su propio diámetro del cono de luz.
3.- Cada vez que se hizo una medición, la función de onda se colapsó al quedar el ion en uno de dos lugares
diferentes: bajo el laser (A) o el láser (B).

¿ Que comprobó el experimento? : Que no hay un límite claro entre las fronteras de la física clásica y la
física cuántica. Pero aunque impresionante el resultado la duda sigue. Si lo que impide ver el estado de
superposición es la medición, cómo se puede obviar ésta para ratificar experimentalmente la tesis de
Schorödinger ¿y cuál será entonces la barrera; y a qué distancia se encuentra?

Para proseguir esta experiencia se está preparando un dispositivo aún más afinado y revolucionario: una
computadora cuántica que no interfiera el proceso. Y de esta experiencia saldrán otras luces reveladoras
sobre la forma en que nuestro cerebro percibe todo colapsado en su función de onda: por ejemplo, el lector
percibe la tinta, el papel y el volumen que lee como si fuesen sólidos, pero no percibe los átomos, ni los
espacios vacíos entre ellos, ni los constituyentes de los átomos, tampoco percibe los niveles inferiores de
quarks, ni el campo F que los ordena, mucho menos percibe el nivel de información - que se teoriza - es el
más bajo nivel de sostenimiento y mantenimiento de la materia. La pregunta aquí es porqué: ¿Dónde se
encuentra la frontera y cuál es la dimensión que media (transición) entre lo que se percibe y los estados por
debajo superpuestos?

Más aún cuál es entonces la realidad: ¿La que percibimos o la que no percibimos? ¿o ambas? Y otra
pregunta inevitable: ¿Por qué percibimos así? Una respuesta muy seria puede ser: porque al carecer de
diferencias todo lo subatómico, la percepción sería tan aburrida que toda la materia con sus colores, formas,
olores, matices y con sus transformaciones permanentes, pasaría a ser percibida monótonamente igual y
entonces: ¿Qué vida sería esta? Pero surge otra pregunta inevitable. Si esto es cierto, entonces: ¿Qué o
(¿quién?) ha dispuesto que fuese así...?

Con un formalismo matemático preciso y con un éxito pragmático total, la mecánica cuántica sin embargo,
ha mostrado una sorprendente fragilidad conceptual y una radical ausencia de imaginación pictórica. En la
mecánica clásica, los conceptos parecen tener un correlato claro y preciso y su lenguaje, en paralelo al
formalismo matemático subyacente, posibilita considerar que los cuerpos físicos se encuentran en el
espacio-tiempo y, en él, pueden tanto describirse como explicarse los fenómenos al igual que predecir su
comportamiento.

La mecánica cuántica, en su concepción ortodoxa o de Copenhague, supone un radical cambio en lo que
cabía considerar concepción "natural", intuitiva del mundo. Así, los objetos materiales, si bien ocupan un
lugar en el espacio, resulta que en determinadas circunstancias ese lugar no es región alguna concreta. Las
leyes por las que se gobiernan los objetos físicos ordinarios dejan de ser válidas cuando esos objetos se
utilizan como instrumentos de observación o medida; en otras palabras, el observador interviene de modo
decisivo en aquello que observa. El azar no es algo ligado al conocimiento o limitación epistémica humana,
sino que es un elemento intrínseco a la naturaleza, por lo cual el conocimiento de ésta ha de ser básicamente
probabilístico.

Frente a la concepción ortodoxa se han ido alzando líneas heterodoxas que pretenden la formulación de una
mecánica cuántica que dé cuenta de tales éxitos, de todos los fenómenos subatómicos conocidos, y posibilite
un cuadro en el cual no se tengan consecuencias como las antes señaladas. Es decir, que se tenga un cuadro
en el cual se sustituya la concepción probabilística y subjetiva por una concepción causal y determinista. En
línea con Schrödinger, fue Bohmn uno de los pioneros en intentar la elaboración de un cuadro formal más
acorde con el clásico desde 1952.

Einstein nunca aceptó los postulados de la Escuela de Copenhague; luego Schorodinger tampoco terminaría
aceptándolos.. Más tarde fue David Bohm (1952) uno de los pioneros en tratar de elaborar un cuadro más
determinista. Ahora, en 1996 el enfoque que el físico teórico inglés Peter R. Holland adopta supone una
inversión conceptual para quien pretende que la mecánica clásica y la cuántica tienen la misma estructura
teórica, lo cual no significa que una se reduzca a la otra. Pero este objetivo supone poder dar cuenta de una
noción clave en la mecánica clásica -la trayectoria bien definida de una partícula- noción que realmente ha
desaparecido en la cuántica. Desde la posición adoptada por Holland esa trayectoria no aparece como caso
límite, sino como consecuencia de los tipos de movimiento que las partículas pueden realizar. Y ello porque
se invierte el proceso usual por el que la dinámica de partículas se define: en lugar de introducir las
trayectorias a través del espacio lagrangiano o el hamiltoniano con demostración posterior de que la
ecuación correspondiente es consistente, ahora Holland define las trayectorias, directamente, como
soluciones de la ecuación que lleva el nombre de Hamilton-Jacobi.

En la concepción ortodoxa la dinámica de partículas es la que implica la evolución del campo en un espacio
de configuración; pero desde la inversión actual que plantea Holland es la dinámica del campo en un espacio
de configuración la que implica la dinámica de partículas.

Esta inversión supone una nueva teoría del movimiento pero también, consecuente, una nueva concepción
de la materia. Materia que pasa a tener un aspecto intrínseco por el cual las masas puntuales se mueven e
interactúan no ya por potenciales preasignados de naturaleza independiente y externos a los puntos sobre lo
que actúan, sino que se mueven e interactúan también por una energía interna. Y ello conlleva la afirmación
de que esta inversión produce una síntesis de las características corpuscular y ondulatoria de la materia que
ahora ya no son mutuamente excluyentes sino que existen simultáneamente (la nueva propuesta no es onda
versus partícula, sino onda y partícula) Y esa existencia simultánea posibilita afirmar que se tiene una teoría
causal determinista frente a la visión ortodoxa.

Así, un sistema material, como el electrón, aparece como una partícula guiada por una onda cuántica que
actúa como un campo, y bien entendido que la función de onda no se toma ya como mero constructo
matemático sino como un ente físico. Desde este enfoque Holland realiza un estudio de los fenómenos
clásicos para mostrar que las órbitas espaciotemporales de un conjunto de partículas reproducen las
predicciones de la mecánica estadística cuántica clásica. Así ha desarrollado planteos teóricos para algunos
de los principales fenómenos ligados a la mecánica cuántica: interferencia, efecto túnel, estabilidad de
materia, espín 1/2, correlaciones no-locales y como algo novedoso, en este enfoque, la observación o la
medición, no hace que la función de onda colapse.

En consonancia con esta nueva interpretación que propone Holland, resulta que Dennis Gabor, (inventor de
la holografía y premio Nobel), aseveró en 1962 que no puede realizarse observación alguna sin que al menos
un fotón -la partícula básica, o cuanto, de la luz- dé en el objeto observado, pero en los últimos años, sin
embargo, quienes se dedican al cada vez más sorprendente campo de la óptica cuántica han aprendido que
esa afirmación es falsa. Ahora es posible determinar si un objeto está presente sin que lo toque ni un solo
fotón, según han logrado determinar los físicos de la Universidad de Tel-Aviv, en Israel en 1993 y
comprobado nuevamente los físicos de la Universidad de Ginebra, Suiza en 1997.

Parece que una medición así, exenta de interacciones, es una contradicción: si no existe interacción, ¿cómo
puede haber medición? En mecánica clásica, que estudia el movimiento de cualquier objeto que no sea
demasiado pequeño, esa objeción es razonable; pero las cosas son distintas en mecánica cuántica, pues con
un diseño experimental hábil se puede realmente medir sin que haya interacciones, lo que plantea nuevas y
sorprendentes repercusiones para la lógica y las especulaciones filosóficas.

2.- Ordenador cuántico.- A medida que evoluciona la tecnología, aumenta la escala de integración y caben
más transistores en el mismo espacio, así se fabrican microchips cada vez más pequeños, y es que, cuanto
más pequeño es, mayor velocidad de proceso alcanza el chip. Sin embargo, no es factible técnicamente
hacer los chips infinitamente pequeños, porque Hay un límite en el cual dejan de funcionar correctamente.
Cuando se llega a la escala de nanómetros, los electrones se escapan de los canales por donde deben circular.
A esto se le llama efecto túnel. Una partícula, si se encuentra con un obstáculo, no puede atravesarlo y
rebota. Pero con los electrones, que son partículas cuánticas y se comportan como ondas, existe la
posibilidad de que una parte de ellos pueda atravesar las paredes si son demasiado finas; de esta manera la
señal puede pasar por canales donde no debería circular. Por ello, el chip deja de funcionar correctamente.
En consecuencia, la computación digital tradicional no tardaría en llegar a su límite, puesto que para estas
fechas ya se han llegado a escalas de sólo algunas decenas de nanómetros y surge entonces la necesidad de
descubrir nuevas tecnologías y es ahí donde entra la computación cuántica, que se inicia en 1981, cuando el
físico norteamericano Paul Benioff expuso su teoría para aprovechar las leyes cuánticas en una “Maquina de
Turing” modificada. Ese mismo año Richard Feyman, otro físico norteamericano apoya la idea y la amplia y
finalmente en 1985 el físico hebreo-britanico David Deutsch perfecciona la teorización .
La idea básica consiste en que , en vez de trabajar a nivel de voltajes eléctricos, se trabaja a nivel de cuantos
. En la computación digital, un bit sólo puede tomar dos valores: 0 ó 1. En cambio, en la computación
cuántica, intervienen las leyes de la mecánica cuántica, y la partícula puede estar en superposición
coherente: puede ser 0, 1 y puede ser 0 y 1 a la vez (dos estados ortogonales de una partícula subatómica).
Eso permite que se puedan realizar varias operaciones a la vez, según el número de qubits.
El "ordenador cuántico" puede realizar operaciones matemáticas con mucha mayor rapidez que los
ordenadores disponibles. El principal rasgo distintivo del ordenador cuántico estriba en el uso del
"paralelismo cuántico", que permite realizar una misma operación sobre varias entradas ("inputs") a la vez.
Para poder aplicar esta propiedad tan sorprendente de la mecánica cuántica es necesario que el ordenador se
encuentre completamente aislado, ya que la más mínima perturbación arruinaría el resultado.

Además, un ordenador cuántico debe estar constituido por cubits (o bits cuánticos), que son sistemas con dos
estados cuánticos distintos: 0 y 1.

La dificultad para construir ese ingenio radica, pues, en encontrar un sistema formado por pequeñas
entidades (cubits) que admitan una manipulación fácil y se hallen completamente aisladas del exterior. Todo
el decenio de los ochenta, a partir de los postulados teóricos de Benioff, permiten comenzar a experimentar
en muchos laboratorios públicos y privados,con relativo éxito . Asi, en de 1994, a modo de ejemplo, citemos
que Patrick Zoller, de la Universidad de Innsbruck (Austria), y Juan I. Cirac, de la Universidad de Castilla
(España) encontraron un sistema que cumple todos los requisitos para construir un ordenador cuántico. Los
experimentos realizados a mediados de 1995 por el grupo de David Wineland, del Instituto Nacional de
Pesos y Medidas de Estados Unidos, han confirmado las ideas, y ya hay varios grupos de experimentadores
adaptando las ideas primordiales y modificándolas para perfeccionarlas, empeñados en construir
ordenadores cuánticos siguiendo la propuesta teórica, pues esto permitirá abrir una poderosa puerta al
conocimiento. En teoría pues, la computación cuántica es posible y la practica aunque limitada por ahora es
muy prometedora.




UNIVERSOS INFLACIONARIOS:

En 1996, en dos publicaciones distintas los dos cosmólogos más combativos: Guth y Linde ofrecen sus
propias versiones de la teoría inflacionaria que como se observa no son coincidentes:

1.- Teoria de la Inflacion.- El físico norteamericano A. Guth hizo un primer planteamiento sobre el Universo
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico
Hacia el universo topológico

More Related Content

What's hot

Principio antrópico y finalismo en la naturaleza
Principio antrópico y finalismo en la naturalezaPrincipio antrópico y finalismo en la naturaleza
Principio antrópico y finalismo en la naturaleza
Tabanito
 
Peat f-david-sincronicidad-puente-entre-mente-y-materia
Peat f-david-sincronicidad-puente-entre-mente-y-materiaPeat f-david-sincronicidad-puente-entre-mente-y-materia
Peat f-david-sincronicidad-puente-entre-mente-y-materia
Juancho Santiago
 
Modelo standard del bing bang y contexto social
Modelo standard del bing bang y contexto socialModelo standard del bing bang y contexto social
Modelo standard del bing bang y contexto social
williamswallace79
 
Universidad estatal de milagro tarea de biologia
Universidad estatal de milagro tarea de biologiaUniversidad estatal de milagro tarea de biologia
Universidad estatal de milagro tarea de biologia
Jess La Beba
 
Análisis y síntesis de El Gran Diseño, Leonard Mlodinow
Análisis y síntesis de El Gran Diseño, Leonard MlodinowAnálisis y síntesis de El Gran Diseño, Leonard Mlodinow
Análisis y síntesis de El Gran Diseño, Leonard Mlodinow
David Alcántara
 
Revolución científica pdf
Revolución científica pdfRevolución científica pdf
Revolución científica pdf
mutxafilo
 
Dios y la ciencia en la cosmologí1
Dios y la ciencia en la cosmologí1Dios y la ciencia en la cosmologí1
Dios y la ciencia en la cosmologí1
williamswallace79
 
Cientificos primera investigacion
Cientificos primera investigacionCientificos primera investigacion
Cientificos primera investigacion
Angelica Limones
 
Teoria cuantica de la radiaciones y laser
Teoria cuantica de la radiaciones y laserTeoria cuantica de la radiaciones y laser
Teoria cuantica de la radiaciones y laser
DR. CARLOS Azañero
 

What's hot (18)

Principio antrópico y finalismo en la naturaleza
Principio antrópico y finalismo en la naturalezaPrincipio antrópico y finalismo en la naturaleza
Principio antrópico y finalismo en la naturaleza
 
Peat f-david-sincronicidad-puente-entre-mente-y-materia
Peat f-david-sincronicidad-puente-entre-mente-y-materiaPeat f-david-sincronicidad-puente-entre-mente-y-materia
Peat f-david-sincronicidad-puente-entre-mente-y-materia
 
Modelo standard del bing bang y contexto social
Modelo standard del bing bang y contexto socialModelo standard del bing bang y contexto social
Modelo standard del bing bang y contexto social
 
Origen de la vida
Origen de la vidaOrigen de la vida
Origen de la vida
 
Universidad estatal de milagro tarea de biologia
Universidad estatal de milagro tarea de biologiaUniversidad estatal de milagro tarea de biologia
Universidad estatal de milagro tarea de biologia
 
LA TEORIA DE LA RELATIVIDAD EINSTEIN EL ESPACIO ES UNA CUESTION DE TIEMPO
LA TEORIA DE LA RELATIVIDAD EINSTEIN EL ESPACIO ES UNA CUESTION DE TIEMPOLA TEORIA DE LA RELATIVIDAD EINSTEIN EL ESPACIO ES UNA CUESTION DE TIEMPO
LA TEORIA DE LA RELATIVIDAD EINSTEIN EL ESPACIO ES UNA CUESTION DE TIEMPO
 
Análisis y síntesis de El Gran Diseño, Leonard Mlodinow
Análisis y síntesis de El Gran Diseño, Leonard MlodinowAnálisis y síntesis de El Gran Diseño, Leonard Mlodinow
Análisis y síntesis de El Gran Diseño, Leonard Mlodinow
 
El+Asombro
El+AsombroEl+Asombro
El+Asombro
 
HISTORIA DE LA FISICA-1
HISTORIA DE LA FISICA-1HISTORIA DE LA FISICA-1
HISTORIA DE LA FISICA-1
 
Unidad 4
Unidad 4Unidad 4
Unidad 4
 
Revolución científica pdf
Revolución científica pdfRevolución científica pdf
Revolución científica pdf
 
Método hipotético deductivo
Método hipotético deductivoMétodo hipotético deductivo
Método hipotético deductivo
 
Revolución cientifica douglas
Revolución cientifica douglasRevolución cientifica douglas
Revolución cientifica douglas
 
Revolución científica
Revolución científicaRevolución científica
Revolución científica
 
Dios y la ciencia en la cosmologí1
Dios y la ciencia en la cosmologí1Dios y la ciencia en la cosmologí1
Dios y la ciencia en la cosmologí1
 
Los Agujeros Negros
Los Agujeros NegrosLos Agujeros Negros
Los Agujeros Negros
 
Cientificos primera investigacion
Cientificos primera investigacionCientificos primera investigacion
Cientificos primera investigacion
 
Teoria cuantica de la radiaciones y laser
Teoria cuantica de la radiaciones y laserTeoria cuantica de la radiaciones y laser
Teoria cuantica de la radiaciones y laser
 

Viewers also liked

ePortfolio CDL Conference April 24 2010
ePortfolio CDL Conference April 24 2010 ePortfolio CDL Conference April 24 2010
ePortfolio CDL Conference April 24 2010
Mara Kaufmann
 
Leadership Excellence January 2011 Issue
Leadership Excellence January 2011 IssueLeadership Excellence January 2011 Issue
Leadership Excellence January 2011 Issue
Don Sandel
 
Ley 84 De 1989
Ley 84 De 1989Ley 84 De 1989
Ley 84 De 1989
calicivico
 
SquiresChristineWeek 7Final Project2
SquiresChristineWeek 7Final Project2SquiresChristineWeek 7Final Project2
SquiresChristineWeek 7Final Project2
Christine T Squires
 
LinkedIn / LinkedOut: A media field study of LinkedIn in a practice theory pe...
LinkedIn / LinkedOut: A media field study of LinkedIn in a practice theory pe...LinkedIn / LinkedOut: A media field study of LinkedIn in a practice theory pe...
LinkedIn / LinkedOut: A media field study of LinkedIn in a practice theory pe...
Mathias Haugaard Jørgensen
 

Viewers also liked (20)

Enesin Results Formu
Enesin Results FormuEnesin Results Formu
Enesin Results Formu
 
ePortfolio CDL Conference April 24 2010
ePortfolio CDL Conference April 24 2010 ePortfolio CDL Conference April 24 2010
ePortfolio CDL Conference April 24 2010
 
Leadership Excellence January 2011 Issue
Leadership Excellence January 2011 IssueLeadership Excellence January 2011 Issue
Leadership Excellence January 2011 Issue
 
Absolute monarchs lesson 3 (louis xiv pt. 1)
Absolute monarchs lesson 3 (louis xiv pt. 1)Absolute monarchs lesson 3 (louis xiv pt. 1)
Absolute monarchs lesson 3 (louis xiv pt. 1)
 
Los procesos 11
Los procesos 11Los procesos 11
Los procesos 11
 
Ley 84 De 1989
Ley 84 De 1989Ley 84 De 1989
Ley 84 De 1989
 
50+ Web 2.0 Ways To Tell a Story (May 2011)
50+ Web 2.0 Ways To Tell a Story (May 2011)50+ Web 2.0 Ways To Tell a Story (May 2011)
50+ Web 2.0 Ways To Tell a Story (May 2011)
 
Learning styles
Learning stylesLearning styles
Learning styles
 
Meaningful use - Will the end result be meaningful?
Meaningful use - Will the end result be meaningful?Meaningful use - Will the end result be meaningful?
Meaningful use - Will the end result be meaningful?
 
MENTE-MEMORIA-INTELIGENCIA
MENTE-MEMORIA-INTELIGENCIAMENTE-MEMORIA-INTELIGENCIA
MENTE-MEMORIA-INTELIGENCIA
 
SquiresChristineWeek 7Final Project2
SquiresChristineWeek 7Final Project2SquiresChristineWeek 7Final Project2
SquiresChristineWeek 7Final Project2
 
Prediction of Compressive Strength of PFA- Cement Concrete
Prediction of Compressive Strength of PFA- Cement ConcretePrediction of Compressive Strength of PFA- Cement Concrete
Prediction of Compressive Strength of PFA- Cement Concrete
 
Alirio teran _ Primer trabajo Programacion 2
Alirio teran _ Primer trabajo Programacion 2Alirio teran _ Primer trabajo Programacion 2
Alirio teran _ Primer trabajo Programacion 2
 
Presentaciones audiovisuales: Regla de 7 x 7
Presentaciones audiovisuales: Regla de 7 x 7Presentaciones audiovisuales: Regla de 7 x 7
Presentaciones audiovisuales: Regla de 7 x 7
 
Gebundelde Krachten
Gebundelde KrachtenGebundelde Krachten
Gebundelde Krachten
 
LinkedIn / LinkedOut: A media field study of LinkedIn in a practice theory pe...
LinkedIn / LinkedOut: A media field study of LinkedIn in a practice theory pe...LinkedIn / LinkedOut: A media field study of LinkedIn in a practice theory pe...
LinkedIn / LinkedOut: A media field study of LinkedIn in a practice theory pe...
 
Reisen und Umwelt / Travelling and the environment
Reisen und Umwelt / Travelling and the environmentReisen und Umwelt / Travelling and the environment
Reisen und Umwelt / Travelling and the environment
 
Elc position essay
Elc position essayElc position essay
Elc position essay
 
Que hacen los buenos profesores
Que hacen los buenos profesoresQue hacen los buenos profesores
Que hacen los buenos profesores
 
Diodos jaime peña
Diodos jaime peñaDiodos jaime peña
Diodos jaime peña
 

Similar to Hacia el universo topológico

Nuevos rumbos para la cosmología
Nuevos rumbos para la cosmologíaNuevos rumbos para la cosmología
Nuevos rumbos para la cosmología
williamswallace79
 
Dios, el éter y el cosmos
Dios, el éter y el cosmosDios, el éter y el cosmos
Dios, el éter y el cosmos
angelo26_
 
Teoria del big bang y el origen del universo
Teoria del big bang y el origen del universoTeoria del big bang y el origen del universo
Teoria del big bang y el origen del universo
juandiego2001
 

Similar to Hacia el universo topológico (20)

Nuevos rumbos para la cosmología
Nuevos rumbos para la cosmologíaNuevos rumbos para la cosmología
Nuevos rumbos para la cosmología
 
1 25 124_15_148
1 25 124_15_1481 25 124_15_148
1 25 124_15_148
 
Metodología juridica y tec de investigación
Metodología juridica y tec de investigaciónMetodología juridica y tec de investigación
Metodología juridica y tec de investigación
 
Ensayo ecologia
Ensayo ecologiaEnsayo ecologia
Ensayo ecologia
 
Forti enero 2022
Forti enero 2022Forti enero 2022
Forti enero 2022
 
Forti enero 2022
Forti enero 2022Forti enero 2022
Forti enero 2022
 
Ada 1.ultimisisimamtro kalim
Ada 1.ultimisisimamtro kalimAda 1.ultimisisimamtro kalim
Ada 1.ultimisisimamtro kalim
 
La teoria del big bang
La teoria del big bangLa teoria del big bang
La teoria del big bang
 
Unidad 4
Unidad 4Unidad 4
Unidad 4
 
Dios, el éter y el cosmos
Dios, el éter y el cosmosDios, el éter y el cosmos
Dios, el éter y el cosmos
 
Teoria del-caos-efecto-mariposa
Teoria del-caos-efecto-mariposaTeoria del-caos-efecto-mariposa
Teoria del-caos-efecto-mariposa
 
Fisica
FisicaFisica
Fisica
 
Portafolio Biologia
Portafolio BiologiaPortafolio Biologia
Portafolio Biologia
 
Teoria del big bang y el origen del universo
Teoria del big bang y el origen del universoTeoria del big bang y el origen del universo
Teoria del big bang y el origen del universo
 
El Universo y el Sistema Solar
El Universo y el Sistema SolarEl Universo y el Sistema Solar
El Universo y el Sistema Solar
 
Unidad 4 b. copia
Unidad 4 b.   copiaUnidad 4 b.   copia
Unidad 4 b. copia
 
Unidad 4 Gaby
Unidad 4 GabyUnidad 4 Gaby
Unidad 4 Gaby
 
Unidad 4 b.
Unidad 4 b.Unidad 4 b.
Unidad 4 b.
 
Unidad 4 b.
Unidad 4 b.Unidad 4 b.
Unidad 4 b.
 
Unidad 4 b.
Unidad 4 b.Unidad 4 b.
Unidad 4 b.
 

More from williamswallace79

More from williamswallace79 (20)

Pensamiento
PensamientoPensamiento
Pensamiento
 
Nacimiento de la ciencia cosmológica
Nacimiento de la ciencia cosmológicaNacimiento de la ciencia cosmológica
Nacimiento de la ciencia cosmológica
 
Las cosmologías de los indios de la amazonia
Las cosmologías de los indios de la amazoniaLas cosmologías de los indios de la amazonia
Las cosmologías de los indios de la amazonia
 
El reencuentro
El reencuentroEl reencuentro
El reencuentro
 
El racismo
El racismoEl racismo
El racismo
 
Dios y la ciencia en la cosmología
Dios y la ciencia en la cosmologíaDios y la ciencia en la cosmología
Dios y la ciencia en la cosmología
 
Del mito a newton
Del mito a newtonDel mito a newton
Del mito a newton
 
Cosmología
CosmologíaCosmología
Cosmología
 
Cosmogonías desde la antigüedad al tercer milenio
Cosmogonías desde la antigüedad al tercer milenioCosmogonías desde la antigüedad al tercer milenio
Cosmogonías desde la antigüedad al tercer milenio
 
Altruismo
AltruismoAltruismo
Altruismo
 
Para qué existe el universo
Para qué existe el universoPara qué existe el universo
Para qué existe el universo
 
Taller Estequiometría
Taller EstequiometríaTaller Estequiometría
Taller Estequiometría
 
Taller Reacciones Químicas
Taller Reacciones QuímicasTaller Reacciones Químicas
Taller Reacciones Químicas
 
Propiedades físicas de compuestos organicos
Propiedades físicas de compuestos organicosPropiedades físicas de compuestos organicos
Propiedades físicas de compuestos organicos
 
Mosquito transgenico
Mosquito transgenicoMosquito transgenico
Mosquito transgenico
 
Energia
EnergiaEnergia
Energia
 
Alimentacion
AlimentacionAlimentacion
Alimentacion
 
Objetivos competencias y ejes
Objetivos competencias y ejesObjetivos competencias y ejes
Objetivos competencias y ejes
 
Programa tercer periodo decimo
Programa tercer periodo decimoPrograma tercer periodo decimo
Programa tercer periodo decimo
 
Programa tercer periodo undecimo
Programa tercer periodo undecimoPrograma tercer periodo undecimo
Programa tercer periodo undecimo
 

Hacia el universo topológico

  • 1. Hacia el Universo Topológico (1990-1999) Si bien las teorías de la relatividad nacieron en las dos primeras décadas del siglo que va a terminar, aún el grueso de la humanidad no las comprende; pero sus repercusiones, sin embargo son - por lo contrario - materia de diaria reflexión para los científicos del micro y del macro cosmos, pues las revelaciones que sacó a la luz constituyen la armazón básica sobre la cual se elabora todo el pensamiento cosmológico en lo que corresponde a la materia, el tiempo y el espacio y el involucramiento de la mente y la conciencia en todo el proceso evolutivo ascencional. La cosmología antes de Einstein trataba de partes del Universo; a partir de Einstein se unifica el concepto y el nacimiento (si es que lo hubo), el desarrollo y su desenlace (si es que lo tendrá) pasó ipso - facto a ser el fundamento de la elaboración cosmológica, aunque la gran mayoría de los astrónomos prosiguieron su labor de rutina asidos a los telescopios y radiotelescopios y siendo interrumpida su labor por la teorización en el mundo de la cuántica que se iba desarrollando cerca, pero aparte. A partir del momento en que la tesis del “Huevo Cósmico” del abate George Lemaitre, adquiere reconocimiento y respetabilidad académicas, la cosmología no habrá de abandonar la mezcla de intuición y empirismo, de metafísica y física que la distinguió en el pasado y siguen siendo su distintivo, hoy día, quizá porque trata una materia muy delicada y sensible, como bien lo reconocen los cosmologistas ,aunque con toda seriedad y objetividad quisieran que así no fuese, pues reniegan de la parte metafísica, aunque esta siga apareciendo velada o abiertamente en sus “predicciones” en sus “generalizaciones”, y en sus proyecciones al distante futuro. Pero aparte de no ser un simple científico, sino ahora una curiosa mezcla no acabada aún de filósofo, teólogo y teórico de la astronomía que involucra con sus afirmaciones el destino planetario y de la humanidad, el cosmólogo que ya tenía casi resuelto el rompecabezas del Universo con base en un modelo estándar convenientemente modificado con la teoría complementaria inflacionista, se enfrenta ahora a otros dilemas. Un problema que aqueja a la cosmología es tanto el tener que enfrentar sus propios problemas; en su propio campo, asumiendo la responsabilidad de los resultados, pero compartiendo con especialistas de otras disciplinas su área de trabajo por lo que, desde entonces ya la cosmología no es la misma. Otro problema derivado de ese - pero también del proceso de fusión que invade todo el quehacer científico (porque el problema no es solo en la física) es que ya no hay “parcelas independientes”, ni “cotos de caza privados” ni “compartimientos estancos” en la ciencia cosmológica. El hombre descubre que el Universo es uno y que la interrelación entre una galaxia, un cerebro humano, una flor, un pedazo de hierro o un virus no es obra de la casualidad como se trató de hacer creer por muchos años por parte de las corrientes materialistas. Si el ser humano “es materia de estrellas”, como afirma el exobiólogo Carl Sagan y estamos hechos de energía (nosotros, el macro y el micro Universo) es obvio que la modalidad de entender, descifrar y describir el Universo requiere del nuevo paradigma del enfoque holístico, pero el científico no se siente cómodo en ese nuevo traje. Esto significa que a los ya insolubles problemas que demandan la atención de los cosmólogos, se está agregando la presión de muchas personas que desean saber más acerca de las sutiles conexiones entre su sistema nervioso y el entorno cercano; entre éste y el planeta que le alberga, entre la Tierra y el Sistema Solar; y por supuesto entre el Sistema Solar y la Galaxia Local, entre ésta y el cúmulo local en la cual se encuentra inmersa y entre ésta y el Supercúmulo a la cual está ligada. Y también desea saber cómo se conecta con otros supercúmulos y obviamente con el Universo entero y aún - ávido e insaciable - con otros posibles o hipotéticos Universos que ya no son elucubraciones de esotéricos, teósofos, espiritualistas o iluminados, sino que le han sido anunciadas por los propios cosmólogos científicos. En fin que sin tener explicaciones completas aún y cada vez más complicado el panorama, el bote de la cosmología ha comenzado a “hacer agua”, quizá como lo previera Stephen W. Hawking con el postulado de la “Ignorancia Relativa”, émulo moderno del filósofo griego que decía “sólo sé que no sé nada”.
  • 2. Pero esa afirmación no es un grito de desencanto, sino más bien un ¡Manos a la obra! y es eso lo que los cosmólogos siempre - sin rendirse han hecho, desde Pitágoras el primer cosmólogo, según narra la historia de Occidente porque recogen ya no solo las inquietudes de los legos que esperan respuestas mágicas de la Cosmologías, sino también las dudas de la física cuántica que se han extrapolado ahora a los modelos cosmológicos. Además el ser humano se preocupa más acerca de lo que ocurrió antes del momento T = O pues la respuesta implica la existencia misma de Dios, o a lo sumo de su voluntad implícita en el Big Bang, y condiciona el presente así como el incierto futuro. Dicho de otra manera al tocar el cosmólogo el ámbito reservado a la teología: el inicio del inicio - y aún más atrás en el tiempo - al iniciador de la Creación- lo que afirme de ahora en adelante en los modelos, topa con algo más que la curiosidad de los legos: está develando los entresijos en que el “alma” ha permanecido escondida. Y así como el astrónomo tardó en acomodarse a las nuevas reglas de juego que implica la relatividad einsteniana; el cosmólogo ahora apenas comienza a moverse, con cuidado en el mundo de la incertidumbre que es la física de partículas; lo cual le coloca en un terreno muy diferente pues ha debido pasar del “Telescopio” a los “aceleradores de partículas subatómicas construidos gracias a las predicciones de la Teoría de la Física Cuántica que no tuvo en su nacimiento el “boom” de la espectacularidad que envolvió a las ideas de Einstein; pero cuyas repercusiones son de importancia paralelos (o aún más allá); según piensan algunos físicos. Consustancialmente la capacidad de ampliación de la única ventana que el planeta Tierra tiene para captar y entender el mensaje del espectro electromagnético, ha entrado en un proceso de crecimiento acelerado debido a la información que aportan las sondas espaciales, los nuevos telescopios y radiotelescopios ubicados en zonas privilegiadas del planeta, dotados de sofisticados instrumentos auxiliares; así como los laboratorios geosincrónicos tripulados y no tripulados, a los que se les ha unido recientemente el Telescopio Espacial Hubble, que pese a su lamentable defecto congénito por un error en el pulido de su lente principal brinda - no obstante - información valiosa, una vez que ha sido reparado. Además - para hacer más complejo el panorama - la cosmología comienza a ser invadida de nuevas formas de pensar al introducirse tanto los conceptos orientalistas de los “contrarios” (teoría del TAO); como aspectos relativos a la filosofía hinduista de los ciclos de la naturaleza (más conocida entre los cosmólogos como “Teoría Shiva”). Y como corolario el cosmólogo Frank J. Tippler de la Universidad de Tulane, ha publicado la primera teoría físico-matemática que correlaciona el Universo, Dios Creador, la resurrección y el futuro de las almas en una Teoría del Punto Omega, clara reminiscencia -plenamente aceptada por el- de la idea seminal del jesuita Theilhard de Chardin. Así que las discreciones y reflexiones que a lo largo de los capítulos anteriores han ido matizando el contexto del avance cosmológico, eran un anticipo obligado. En este capítulo el tema a desarrollar será estrictamente cosmológico, para dejar asentado al acercarse el Tercer Milenio cual es -exactamente- el estado del conocimiento en la elaboración de modelos científicos. Como podrá observarse la mayoría de esos modelos son muy ambiciosos, complejos, difíciles de captar con la imaginación sujeta a las leyes de la física conocida y nos van a llevar por rumbos cuasi esotéricos. COSMOLOGÍA: NUEVA CIENCIA: Un estudio efectuado por Helmuth A. Abt para la revista Sky & Telescope revela que, a mediados de la década de los noventa el número de páginas publicadas en cada artículo que contiene el sumario de las comunicaciones científicas astronómicas ha aumentado a partir de 1910 de una a seis; en el mismo tiempo la cantidad de artículos se aumenta anualmente un diez por ciento y aunque los artículos sobre teoría han crecido desde la primera fecha de un cinco por ciento sobre el total, hasta llegar a un 33% en la década de los noventa la tendencia es a duplicarse cada setenta y ocho años después de la II Guerra Mundial. Se observa asimismo ahora una tendencia a presentar trabajos multidisciplinarios pero con mayor énfasis en el trabajo observacional disciplinario. Por otra parte - desde 1910 - el número de páginas publicadas anualmente (promediando 1000 palabras por cada página) se ha incrementado en un 40%. El tamaño de los artículos ha subido de menos de tres páginas a cerca de doce. El estudio incluye únicamente tres revistas norteamericanas: “Publications of the Astronomical Society of The
  • 3. Pacific ; Astrophysical Journal y Astronomical Journal.Si se agregan publicaciones como Nature, Science, British Astronomical, Physic Today ,para mencionar únicamente las más conocidas en idioma inglés , las cifras de comunicaciones científicas sube en proporciones inimaginables. Una deducción obtenida con base en la correlación de los datos suministrados por la ADION de Francia durante los primeros años de la década de los noventa permite sacar dos conclusiones: una, que el sumario de comunicaciones científicas asciende a un promedio de 42 páginas y que el número de artículos por año ha aumentado en poco más de veinte por ciento entre 1975 y 1995, para totalizar más de 100 por año. Si se unen los resultados de ambos estudios es posible concluir que la mayoría (87% de los artículos) son obra de equipos multidisciplinarios, de los cuales más del 94% son de materia observacional; y de éstos un 27% presentan una mezcla entre aspectos propiamente astronómicos con propuestas obtenidas de la física de partículas y solamente un 8% son artículos dedicados a la “ cosmología pura”. Aunque esta no es -ni mucho menos una muestra representativa- sino una aproximación especulativa al menos dos conclusiones pueden derivarse de estos datos: 1) La primera se refiere al aumento del interés por el estudio de la astronomía como carrera universitaria y al involucramiento de los estudiantes con equipos de investigación en las primeras fases de sus carreras, no sólo como incentivo, sino como estrategia de utilización de sus mentes frescas, imaginativas y sin posiciones apriorísticas. 2) La segunda se relaciona con la materia cosmológica propiamente dicha y es que si bien el trabajo académico efectuado en universidades o en institutos afiliados a universidades o a esfuerzos conjuntos de universidades de un mismo país o de varias naciones, se centra en labores astronómicas rutinarias de observación e investigación; el trabajo en el área de la especialización cosmológica propiamente dicha (elaboración de teorías) es una labor paralela, porque ahora debe hacerse con mucha seriedad, dado que lo que comenzó como una especulación matemática o filosófica hoy día tiene ya grado de ciencia. Esta labor es paralela además, porque los recursos financieros destinados a estos estudios especializados no suelen contar necesariamente con las dotaciones presupuestarias por parte de los políticos, más interesados o en la solución de otros problemas o en la mantención de intereses político - militares. Otro aspecto que suele afectar el trabajo cosmológico es que de igual manera que sólo público entendido distingue la astronomía de la astrología con cifras que pueden oscilar entre el 5% y el 10%, según se trate de países desarrollados o países no desarrollados, como señala la Sociedad Astronómica Irlandesa en un estudio que data de 1993, y que como dato curioso, agrega que muchos de los planteamientos de la cosmología suelen asociarse con la ciencia - ficción. Los cosmólogos lo saben y al igual que los astrónomos esta otra ignominia es superable por su desenfado y buen humor, para disminuir - quizá de esta forma - la tensión de saber que sobre sus hombros descansa una responsabilidad que les trasciende en mucho, máxime que desde hace por lo menos dos décadas la prensa mundial ha ido dando más espacio rutinario a la inclusión de noticias provenientes de este mundo, tanto porque hay un serio interés divulgativo, como porque lo que suelen afirmar los astrónomos - cosmólogos son verdaderos “platos fuertes” para esa misma prensa, pues se prestan fácilmente para títulos de carácter sensacionalista. La aparición de “software” (programas) especializado para computadoras personales (P.C.); de cintas de video en formatos accesibles al público (VHS 3/4 y 1/2 y Beta) que eran las herramientas usuales en la década anterior han cedido paso a las nuevas tecnologías digitalizadas que ahora acompañan el material divulgativo básico las de colecciones de “slides” (transparencias fotográficas) y las fotografías y películas digitalizadas a color con base en técnicas sofisticadas capaces de captar fotones de uno a uno con telescopios personales de gran apertura, ha comenzado a permear el mercado de los "astrónomos amateurs" (aficionados), serios, cuanto el de los Hobbystar desprovistos de conocimientos pero con capacidad adquisitiva. De esta manera la búsqueda de astrónomos y cosmólogos, fuertemente dotados de equipo sofisticado, ya no es su campo de acción privativa, porque la unión de tecnología de punta y mercadotecnica
  • 4. ha permitido la proliferación de la industria del conocimiento de las maravillas del cosmos, pero no como mera contemplación, sino como esfuerzo personal. El "boom" es de tal naturaleza que -por ejemplo- tan solo dos casos de fabricantes de telescopios (en todas las configuraciones y aperturas), publican mensualmente un total de 10 a 15 páginas "full-color" en la revista Sky and Telescope y el índice de la revista permite constatar que más de la mitad de sus páginas mensuales, están dedicadas a anuncios de venta de toda clase de dispositivos observacionales de nivel sofisticado. Asimismo ha habido un auge en la construcción de novedosos sistemas de planetarios, museos espaciales, museos científicos y áreas de divulgación especializada debidas al empuje de casas como Omnimax; Spitz Space; Goto, Zeiss; que han revolucionado este campo educativo - por ahora solo accesible a países desarrollados; pero en los próximos diez años al alcance de todos los países, según datos suministrados por expertos en la materia. También se ha aumentado con fuerza los encuentros antes casuales y hoy como parte de una obligada agenda a la que concurren los cosmólogos para dar conferencias a públicos especializados, o trabajar en mesas redondas o seminarios con el patrocinio de la Unión Astronómica Internacional (UAI); de la NASA, de CESAT, (Europa), o de CCVE (Rusia). Todo esto lleva a crear un interés muy marcado en la cosmología y aunque el grueso del público no muestra gran interés en conocer cómo se elabora el pensamiento cosmológico actual si existe avidez en conocer la última explicación que ha sido “lanzada al mercado” porque la sed de preguntas sigue sin ser saciada. El acervo del conocimiento científico durante las últimas dos décadas se ha visto contaminado por la aparición de literatura seudo - científica, que se confunde con la que proviene de la ciencia ficción, en razón del inusitado interés por los asuntos cósmicos, la expectación que despiertan los programas de búsqueda de vida extraterrestre; así como por el influjo de corrientes espiritualistas de corte budista y brahmánico en algunas de las disciplinas científicas. El impacto de las nuevas ideas, bajo el nombre genérico de New Age es, probablemente, el resultado de la gran incertidumbre en que la ciencia ha dejado al ser humano, sobre todo ante la imposibilidad de procesar y digerir, desde el punto de vista intelectual y emocional, los planteamientos de la física relativista y de la física cuántica. Pero resulta que como toda nueva disciplina científica su nacimiento es una mezcla de planteamiento apriorístico, dudas, expectativas y un cúmulo de datos a la espera de ser ordenados y clasificados de forma coherente. Al pasar la cosmología de las teorías a los modelos y de estos a las leyes y finalmente, a los principios fundamentales, el panorama deberá aclararse. Por el momento la cosmología sigue estando amarrada a la nueva física, y esta, a su vez al desembarazarse de consideraciones metafísicas provenientes de la teología y la filosofía ha establecido su propia metafísica, con hondo acento reduccionista a veces y en otras haciendo extrapolaciones en otras áreas del conocimiento. Todo el trabajo de divulgación en el campo de la Cosmología en las décadas anteriores se fundamenta en los hallazgos astronómicos y en las teorías cosmológicas. Pero al convertirse la cosmología en ciencia uniendo las tesis relativistas y las tesis cuánticas se produce un vacío de entendimiento que no afecta solamente a los legos sino a los propios físicos. Esta capítulo se divide en cuatro áreas: la primera se refiere a nuevos aportes teóricos, así como incluye las polémicas en torno a esto; la segunda se refiere a los nuevos hallazgos observacionales; la tercera nos ubica en la dirección de las investigaciones de la topología del Universo; la cuarta se refiere al problema del tiempo, a sus paradojas teórico-prácticas, así como a un problema concreto: la edad real del Universo y las repercusiones de este problema sobre la validez del modelo B.B. Por ejemplo la revista Sky & Telescope da a conocer estos datos reveladores: en 1959 del total de astrónomos profesionales; solo un tercio de la comunidad astronómica aceptaba los planteamientos del Big
  • 5. Bang y apenas diez por ciento de ese tercio estaba involucrado en trabajo cosmológico y que para 1994 solamente el cincuenta por ciento de la comunidad científica (de un total de doce mil), manejaba los conceptos “finito” e “infinito”. En la época bajo análisis y a partir de ella ya sin interrupción de continuidad, emerge gran discusión teórico- metafísica sobre las principales teorías con las que se explican los modelos del Universo. Hemos pasado de la astronomía de posición (astronomía comtemplativa dirían los románticos) a la astronomía de las galaxias y de allí a la astronomía del principio del Universo. Pero los físicos y matemáticos (que les acompañan en el periplo) desean más: ir al inicio del inicio. Y de ese periplo irán a emergen no solo visiones, también mucha teorización que es la argamasa del cosmólogo. De las visiones que emergen en esta época, se escogen unos ejemplos que se matizan con criterios provenientes de los propios físicos: POLÉMICAS TEÓRICAS A continuación se explican los aportes teóricos más relevantes que preparan el advenimiento de las visiones cosmológicas de este fin de siglo, aunque se advierte que sus bases se remontan, en algunos casos hasta la década de los ochenta o más atrás; pero como es usual en la ciencia la divulgación de las polémicas entre los teóricos afloran apenas en este tiempo. TEORÍAS DE UNIFICACIÓN (GUT/TOE) La búsqueda de una fórmula única que explique el Universo es una meta permanente de la ciencia física y ha pasado por estas etapas: 1.- En la Antigüedad se trató de identificar una sustancia o una fuerza única como la proveedora de la vitalidad de todo lo existente conocido y la respuesta fue la Teoría Atomista, que nace como un concepto filosófico y luego termina siendo un concepto físico plenamente demostrado desde fines del siglo pasado. 2.- Al conocerse en el primer cuarto del siglo actual los diferentes constituyentes del átomo, la búsqueda se orientó hacia la explicación unitaria de las diversas fuerzas y desembocó en el concepto de campo primero y campo unitario después, así como se da inicio a conceptos de simetría. 3.- Al comprobarse entre los años cuarenta y setenta la intercambiabilidad entre la materia y la energía la búsqueda desembocará en la investigación de la Supersimetría. 4.- Al tratar el problema del nacimiento del Universo la física se topa con el Muro de Plank que impide en teoría (y en la práctica aún más) conciliar materia, energía y fuerzas lo que hace que en la década de los setenta y ochenta aflore la teoría de la Supergravedad. 5.- A partir de los ochenta la búsqueda se torna muy práctica recurriendo a los aceleradores y superaceleradores de partículas y nacen entre otras ideas: las teorías de los físicos nucleares llamadas Susy, N = 8, o Primos, cada una con sus particularidades distintivas; pero a partir de aquí la búsqueda se vuelve muy teórica, y detrás de cada experimento hay un laborioso trabajo de pensamiento auxiliado por computadoras y supercomputadoras. 6.- De este último intento surgen propuestas muy polémicas, entre ellas: la Teoría de Cuerdas (propuesta entre 1968 - 1970) y su avance más prometedor: la Teoría de Supercuerdas, (propuesta en 1974 - 1981) que busca proveer de una explicación satisfactoria, elegante y sencilla de la geometría y de la topología del espacio - tiempo, así como de las diversas (y al parecer “diferentes”) formas que adoptan sus constituyentes; pero - además - busca dar respuesta satisfactoria a las interrogantes en torno a la aparición del Universo. Por razones de preferencia algunos físicos se orientan hacia la unificación de las cuatro fuerzas conocidas y ese esfuerzo se conoce como la búsqueda (por diversos caminos téoricos) de la Teoría de la Gran Unificación, en inglés conocida como GUT. Otros físicos en la idea que las cuatro fuerzas son la diferente expresión a diferente nivel energético de una sola y fundamental fuerza llaman a ese intento la búsqueda de la Teoría del Todo (Teory of Every Thing), de la que surge el vocablo TOE.
  • 6. SUPERFUERZA: Desde hace varios años se conoce la existencia de fuerzas que operan en la naturaleza, cada una por aparte. El estudio de cómo operan en la naturaleza llevó a entender que pueden unirse y así es como hoy día se las distingue en estas interacciones. A cada una de estas fuerzas corresponde una unidad denominada “mensajero”, dotado de masa y carga. Ver anexo al final del libro. En el proceso de encontrar las vías para unificar estas fuerzas se ha originado una búsqueda en la Gran Unificación (Teoría de la Gran Unificación, conocida como GUT), aunque en realidad hay varias teorías de este tipo (GUTS), como resultado del trabajo pionero iniciado en la década de la setenta por Glashow y Georgi y cada teoría trabaja con familias de 5 partículas. En lo que interesa para la cosmología han surgido estas ideas que involucran la búsqueda de la fuerza única, fundamental, simetría perfecta, que se “quiebra” al originar el Universo para dar paso al Universo conocido; complejo y con fuerzas dispersas, que no es fácil unificar después del nacimiento del Universo: A.- Interacción Débil: Busca la conexión entre las interacciones electromagnéticas y la fuerza débil (conocida como Q.E.D.). Los aspectos más relevantes de su búsqueda son los siguientes: 1) Los trabajos experimentales iniciados por Gell Mann, en los años sesenta, seguidos por los físicos cuánticos Zweig, Weyl y los trabajos teóricos de Yang, Mills, Abel, Schwinger, Bludman, Glashow, Salam, Ward, Weinberg, Higgs, T'Hooft, que culmina el holandés Martin Veltman, sirve para que en 1973 en el CERN dirigido por Carlo Rubbia, se encuentren gran cantidad de pruebas repetitivas que confirman la interacción de las partículas “mensajeros” de la fuerza electrodébil al estar presente la partícula Z. 2) En 1983 el CERN (Centre Europeen pour la Recherche Nucleare), construye un nuevo acelerador de partículas que encuentra las pruebas de la existencia de las partículas mensajeros W y Z. 3) De ambos experimentos-productos de predicciones teóricas se infieren consecuencias muy importantes; entre ellas que la interacción de estas masas se produjo durante el B. B. cuando la densidad energética (temperatura) del Universo era suficientemente elevada, con lo que las partículas de masa ligeramente inferior a 100 Ge V podían aparecer espontáneamente en forma de pares partícula - antipartícula. En lugar de que el portador de la interacción débil viviera durante el breve instante de tiempo permitido por el Principio de Incertidumbre (Heisemberg), el suministro de energía libre el entorno daría existencia real a cualquiera de esas partículas virtuales alargándose la existencia. Si la masa de una partícula es menor que la energía disponible, puede vivir permanentemente como el fotón por lo que la distinción entre fotón y partículas W y Z se desvanece. 4) A energías suficientemente altas no hay entonces distinción entre interacciones electromagnéticas y débiles. Tal distinción aparece en un Universo frío en que se rompe la simetría y así las partículas W y Z se deshacen cuando una millonésima de segundo después de la explosión (T = 0), la temperatura pasa a ser 10 Kelvin. Desde entonces las interacciones electromagnéticas y la fuerza conocida como Interacción Débil comenzaron a marchar por caminos separados. B.- Interacción Fuerte: Busca la conexión entre las interacciones electromagnéticas y la fuerza fuerte (conocida como Q.C.D.). Los aspectos más relevantes son los siguientes: 1) Los trabajos teóricos que inicia Gell - Mann en los años sesenta son seguidos por las teorías de Greemberg, Hambu, Han, Glashow, Iliopouolos, Maiani, Fritzch, hasta 1974, año en que en el Laboratorio Brookhaven y Stanford se descubren -simultáneamente- las pruebas de una nueva partícula (PSI) a la que pronto siguieran muchas otras que permitieron descubrir las interacciones de otras partículas del tipo de los leptones. 2) Y hay bases teóricas y empíricas fuertes para entender los mecanismos de la Q.E.D. explicados en el punto anterior pero los mecanismos de la Q.C.D. apenas se iniciaron en años recientes y no hay seguridad respecto a su comportamiento que aguarda nuevas experiencias en los aceleradores de partículas.
  • 7. C.- Interacción Débil + Interacción Fuerte: Busca la interacción entre Q.E.D. y Q.C.D. Los aspectos más relevantes son los siguientes: 1) Un paso a dar es la combinación de la interacción débil (Q.E.D) y la interacción fuerte (Q.C.D.). 2) Aún cuando se logre, todavía queda por fuera la gravedad. 3) Por ahora no queda más posibilidad que tratar de llevar las teorías unificadas (GUT) al laboratorio de la Naturaleza; precisamente a la Gran Explosión, lo cual lo convierte de un trabajo de experimental, en teórico nuevamente. Para ello se ha iniciado la llamada búsqueda de la Supersimetría. SUPERSIMETRÍA: Es una teoría específica para ser aplicada al inicio del origen sobre el Universo. En esa época - a juicio de los físicos: brillante, impetuosa, sencilla, sin dobleces; simple, pero luego, durante el proceso que provoca el B. B. perdió esas características: el Universo nació, maduró, se complicó. En el principio era la simetría sencilla, perfecta; luego - se hizo asimétrica, con niveles de estructuración con sus propias leyes, todo se complicó. Los cosmólogos teorizan acerca de las características de las partículas durante la época de la supersimetría: las partículas S o S-partículas. a) El conjunto de leyes que dominan la materia (bajo la Teoría Estandard de la Física Cuántica) dan cuenta de la existencia de una economía energética en que todo está compuesto por fermiones que interaccionan uno con otro mediante el intercambio de otras partículas - mensajeros: los bosones. Por su parte los feriomes tienen varias identidades; igual sucede con los bosones mensajeros, según asuman alguna identidad; por ejemplo en la fuerza electromagnética y en la gravedad actúan en distancias largas. El modelo estándar predice como funcionan estas cuatro fuerzas, pero (excepto en el caso del electromagnetismo y de la fuerza nuclear débil) no ha predicho como están conectadas. b) Una clave para encontrar esas conexiones es el concepto de simetría utilizado por el modelo estándar: a) las cuatro fuerzas tienen simetría direccional propia, independientemente de su localización en el espacio; b) las fuerzas electromagnéticas tienen cargas simétricas que se comportan igual, el cambio de cargas positivas por cargas negativas no hace ninguna diferencia; c) en el caso de la electricidad y el magnetismo se comportan igual y pueden ser intercambiables y obedecer así las mismas reglas. En consecuencia se esperaría encontrar una gran simetría entre las cuatro fuerzas; pero no ocurre así; aunque todas tengan el mismo origen y desde el inicio de la década de los setenta quedó evidenciado algo común: hay no una simetría: hay una asimetría más bien. c) Se trata de la asimetría entre fermiones y bosones, ya que aunque tienen propiedades similares: masa y carga; sin embargo sus funciones son diferentes. De aquí nació la teoría de la supersimetría (SUSY) que establece que para cada función hay otro fernión que le corresponde, pero es oculto y se comporta como bosón; y para cada bosón, hay otro bosón que le corresponde, pero es oculto y se comporta como fermión. Estas partículas ocultas (sibilinas) se denominan “superpartner” (supercompañeras) o S-partículas y la interrelación entre ellas se denomina Supersimetría. Con esta teoría lo que parecía un amasijo de partículas y de fuerzas sin relación entre si tomó forma: todas las partículas y sus fuerzas que parecen corresponder a cosas diferentes son, en realidad manifestaciones diferentes de una sola: la simetría perfecta universal inicial (puesto en términos metafísicos: “lo múltiple como manifestación de lo uno” implica no sólo a las partículas sino a su escenario: el espacio-tiempo. d) En el Universo inicial cada una de las cuatro fuerzas tenía un comportamiento similar; eran partes simétricas de una sola fuerza; de lo que se desprende otra consideración metafísica: siendo similares las cuatro, eran en realidad una sola; de lo que se deriva que el nacimiento del Universo en el B. B., fue la ruptura de la Fuerza única: la Simetría Perfecta y esto plantea una paradoja: la creación del Universo rompe el orden y crea el caos, lo que es un concepto contrario a lo que siempre se ha afirmado; pero que - en la práctica lleva a la diversidad, en razón de la complejidad evolutiva; en donde la gravedad y la entropía se anteponen para permitir la ascensión de la vida. Y la ascensión no es el resultado del azar y la necesidad -
  • 8. aunque jueguen su papel, sino de la información existente en la materia, es decir en cada partícula y subpartícula elemental, que luego dará emergencia a la conciencia. e) Tal pareciera que la Teoría de la Supersimetría permite hacer especulaciones metafísicas que incluyen el Alfa (Simetría Perfecta), propician el Universo y nuevamente llevan a la otra manifestación del inicio pero al final del proceso el Omega. Pero también curiosamente la organización es un proceso que se abre paso a través de la complejidad, como si se tratara de una homoestasis universal, que deja el campo libre para modificaciones locales, episódicas; pero que en su conjunto se autoregula, porque el Universo es autocontenido aunque no tenga limites. SUPERGRAVEDAD: Los físicos de la CERN trabajan con un modelo experimental especial de GUT, tipo SUSY que se centra en la gravedad, conocido como Supergravedad (o N = 8) y su variante se conoce como PRIMOS. Sus caracteríscticas son las siguientes: a) Estos físicos señalan que N = 8 explica todo: fuerzas, partículas materiales y geometría del espacio - tiempo de una vez. Lo interesante es que N=8 no solo es normalizable, sino autonormalizable y da simples respuestas finitas a las preguntas que se plantean los físicos. b) Esto hace que estos físicos estimen que se está cerca de cumplir un sueño de Einstein de hace más de sesenta años para expresar, el Universo en una ecuación de campo que unifica las fuerzas en un espacio - tiempo curvo. Cuando Einstein expresó la Relatividad General lo hizo utilizando cuatro dimensiones (tres del espacio, ya clásicas y le agregó el tiempo como cuarta). En 1919 el físico Theodor Kaluza, en Alemania escribió las ecuaciones de Einstein que explicaban la fuerza de la gravedad en función de la curvatura del continuo espacio - tiempo tetradimensional, pero lo hizo usando una quinta dimensión y descubrió - luego - que se trataba de las ecuaciones del electromagnetismo de Maxwell. c) Kaluza había unificado la gravedad y el electromagnetismo y este último, parecía ser simplemente la gravedad operando en la quinta dimensión. En 1926, Oskar Linde físico sueco incorporó la idea de Kaluza a la Teoría Cuántica, en la ecuación de Schrödinger que consta de cuatro variables y a la que agregó una variable más. Descubrió que las soluciones demostraban ondas - partículas que se desplazan bajo la influencia de los campos del electromagnetismo y de la fuerza gravitacional. (Estas teorías fueron olvidadas porque no conociéndose más fuerzas con las cuales operar, todo parecía un artificio matemático y la única “salida” era invocar más dimensiones añadiendo variables a las ecuaciones para incluir los efectos de los nuevos campos y sus portadores, descritos todos por los mismos efectos geométricos que la gravedad (Por ejemplo: un fotón sería una ondulación en la quinta dimensión, una partícula Z, una ondulación de la sexta dimensión y así sucesivamente). d) Pero en realidad ahora los físicos han comenzado a operar con la supergravedad (teoría N = 8) y sucede que en la versión matemática más sencilla se requiere once dimensiones. Esto es: la superfuerza es explicable con una teoría que requiere once dimensiones (las 4 del espacio - tiempo clásico einsteniano y siete dimensiones adicionales). Para el físico Israel. Salam esta geometrización del mundo de las partículas y campo, abre un fértil campo de teorización. Bajo esta nueva visión, se postula que el Universo tiene estas condiciones al inicio: SUPERCUERDAS: A raíz de estos planteamientos se han esbozado ramificaciones de la teoría. Así, por ejemplo se plantea la llamada “Teoría de Cuerdas” ( que en la década anterior algunos confundían con la existencia de Cuerdas o Cordones Cósmicos macro que son limites aun no explicables ) en que las partículas en ese estado no estaban juntas, sino como especie de cuatro cuerdas unidimensionales “que se desplazan en un espacio - tiempo hiperdimensional”. Otra versión más sofisticada es la “Teoría de las Supercuerdas”, en que la presentación de la materia es arrollada o compactada sobre sí misma en un espacio decadimensional (10 dimensiones). En esa línea la Teoría de Supercuerdas no sólo sería una búsqueda más de TOE (esto es de una teoría del "todo" o "Theory of Everything"), que sería más ambiciosa que la búsqueda de la GUT ("Grand Unification
  • 9. Theory") también sería la unificación del conocimiento de la física; en otras palabras la unificación del conocimiento, porque busca relaciones básicas, fundamentales entre las diversas pautas que muestra la naturaleza; pero todavía más: se pretende encontrar la explicación sin necesidad de recurrir a experimentos, partiendo de la idea que éstos, en última instancia lo que aportan son “mediciones convencionales”, de los fenómenos observados, lo que a la Teoría de Supercuerdas en el campo deductivo. En menos palabras: se pretende encontrar el principio fundamental jerárquico que gobierna al Universo y condensarlo en una sola fórmula tan sencilla como lo fue en su tiempo E = Mc2. Ahora bien, el esfuerzo de la Teoría de Supercuerdas no es sencillo porque al pretender trascender los límites alcanzados por las teorías antecesoras (pero también complementarias): superfuerza , supersimetría , supergravedad , también hay otros límites operacionales propios del instrumental matemático al pretender con los conceptos de finito e infinito, limitado e ilimitado, así como también para tratar con fenómenos clásicos y fenómenos “cuantizados”, y con el surgimiento de “anomalías” cuando se trata de “acomodar” diversas formas de medición dentro de conceptos unitarios, o bien cuando se trata con el tema de las dimensiones, dado que ciertas ecuaciones trabajan bien cuando se les formula en once dimensiones, o en cinco, pero no cuando se les maneja en siete o en nueve, por ejemplo; o también para tratar del tema de los “taquiones” que violarían el principio de la limitación de la velocidad de la luz (en el vacío), o bien de los hipotéticos "gravitones". Originalmente la idea de que las concentraciones de materia a nivel subatómico (particular), en realidad podían ser consideradas como cuerdas o lazos cerrados sobre sí mismos, la formuló el físico de partículas italiano Gabriel Veneziano en 1960, pero luego la teoría se abandonó. Los físicos John Scharz y Joel Scherk, la rescatan en 1968 y la reformulan en una ecuación que requiere 36 dimensiones, que luego queda reducida a 10, de las cuales 4 son conocidas y las 6 restantes - teorizan - han quedado “curvadas sobre sí mismas” en un punto tan pequeño (10-33cm.) que pasa desapercibido. Sin embargo es necesario reconocer, al menos, cuatro esfuerzos teóricos previos que sirven de base al planteamiento de Veneziano: a) en 1830 el físico inglés Michael Faraday establece la interrelación entre dos fuerzas aparentemente distintas: la electricidad y el magnetismo, b) en 1850 el físico alemán Maxwell formula la ecuación que las unifica; c) en 1921 el matemático alemán Theodor Kaluza decide escribir la ecuación de campo de la gravitación de Einstein no en cuatro, sino en cinco dimensiones y obtiene de una sola teoría la unificación matemática del electromagnetismo y la gravedad; d) finalmente en 1926 el físico sueco Oscar Klein explica que la quinta dimensión planteada por Kaluza no es visible ni detectable porque se encuentra enrollada sobre sí misma en un punto increíblemente pequeño que calculó en 10-30cm. En el desarrollo más aceptado de la teoría (en estas épocas) es debido a John Scharz y Michael Green (1984) que se plantea que las vibraciones de las cuerdas pueden calcularse en 496 diferentes modos, y esto significa la existencia de 496 cargas energéticas, las que darían origen, a su vez, en su expresión geométrica, a 496 partículas que al comportarse espacialmente de diferente manera pueden ser medidas algunas y otras aún no. Las posibilidades de dar comprobación en los aceleradores de partículas a estos cálculos matemáticos dependen de la cantidad de energía que debe emplearse para su calibración. Para la década de los noventa la capacidad instalada sólo permite medir partículas de baja carga (no más allá de 100 GeV, - gigaelectronvoltios), mientras que se calcula que la medición de todas las eventuales 496 partículas predichas requiere una energía de 1019 GeV (gigaelectronvoltios). Eso significa la reproducción de la energía existente en el Big Bang, lo que - obviamente - está fuera del alcance de los conocimientos actuales. A la fecha los físicos que marchan a la cabeza del desarrollo de la teoría son, entre otros: John Schwarz, Edward Witten, Michael Green, David Gross, John Ellis, Abdus Salam y Steven Weinberg, la mayoría norteamericanos e ingleses. Independientemente de sus disímiles esfuerzos teóricos, estiman que este es el esfuerzo más conspicuo de la física en toda la historia y piensan que de lograrse la unificación de la física,
  • 10. por esta vía (u otras alternas que pueden surgir) se iniciara el verdadero conocimiento del Universo. En su expresión más sencilla la Teoría de Supercuerdas parte de estos principios: 1) La materia que se observa, las fuerzas que se atraen o repelan la materia, la energía que es intercambiable con la materia o viceversa, la interrelación entre la energía y materia con el espacio y con el tiempo, obedecen a una forma de observar, capturar, interrelacionar y medir los aspectos fenoménicos de la naturaleza. Para cada fenómeno se ha establecido - por convención - medidas que dan cuenta de una particularidad de ese fenómeno y esto ha dado origen a especializaciones del conocimiento (y particularmente a especializaciones dentro de la física). La capacidad de conocer está en relación directa con la capacidad de medir, de comparar y de esta manera se ha ido cada vez a más profundidad que es lo que en última instancia integra cada fenómeno en su nivel más básico. 2) Las cuerdas serían objetos de aproximadamente 10-13 centímetros (increíblemente pequeñas, porque si se les compara con el tamaño de un núcleo atómico serían 1020 más pequeñas que aquellas). Esta cuerdas estarían cerradas sobre sí mismas, vibrando en diez dimensiones, de las cuales cuatro pueden ser accesadas por la vía de los fenómenos que producen y las restantes dimensiones no serían accesables. En el proceso de reconciliación de la teoría de la gravedad al mezclarse con los conceptos de la teoría cuántica matemáticamente se obtienen expresiones y resultados carentes de sentido (o bien infinitos, o violatorios de los principios básicos de la física); pero por medio de la introducción de las expresiones matemáticas de las supercuerdas se obtienen (a partir de 1982) resultados razonables y lógicos y con expresiones finitas. 3) En la teoría hay posibilidad de trabajar con cuerdas con extremos libres, o en cuerdas enrolladas sobre sí mismas en distancias calculadas en 10-33cms. (longitud de Plank) y esta última versión es la más promisoria; porque además muestra la característica de que no presenta anomalías al quebrarse la simetría cuando la teoría pasa por la fase de cuantización. Hasta finales de 1995 los teóricos que trabajan en supercuerdas no han logrado, sin embargo, tener una sola expresión de la teoría y así hay varias aproximaciones (E8xE8 ; SO32; como la llaman los físicos) y algunas de estas versiones son “heteróticas” y otras son “no heteróticas”, pero se piensa que del total de sus versiones de la teoría, en realidad se pueden reducir a una sola: solo es cuestión de cálculos y se estima que para los primeros años del siglo venidero la teoría estará terminada. 4) Las cuerdas enrolladas sobre sí mismas vibran, rotan, oscilan y según se capte o mida cualesquiera de estos fenómenos se está midiendo un comportamiento que se capta como si fuera distinto. Por ejemplo: el electrón es una cuerda vibrando; un quarks es una cuerda vibrando de otra forma, un gravitón es una cuerda vibrando de otra manera, y en algunos casos la vibración no es perceptible. Se estaría de frente a materia no observable pero que sí existe (la materia oscura que lleva el Universo, sería un caso). Se sabe que los quarks, los leptones se reúnen en familias de tres y no se conoce la razón para que así ocurra, pero con la teoría de supercuerdas se calcula con sencillez que el número de familias es una propiedad resultante de la forma que toma la mitad del "número de Euler", en el espacio enrollado de seis dimensiones, lo que para algunos físicos es una comprobación observacional de la teoría. 5) Un aspecto sorprendente de la teoría es la interrelación de los resultados según los métodos de cálculo. Así se ha afirmado que la teoría es única pero - por razones no conocidas - se puede obtener cálculos concretos según sea la forma de aproximación que se emplee para resolver las ecuaciones. Y ¿por qué ocurre esto? es una pregunta aún sin responder de allí que se haya comenzado a emplear artificios matemáticos como el esquema de la “teoría de la perturbación” y se esté profundizando más y más en la línea de desarrollo matemático para entender mejor la realidad que subyase tras la teoría. En última instancia, para los investigadores el límite es la matemática, el límite de la matemática es su “tractabilidad” y el límite de esta característica es la mente humana. La teoría de supercuerdas obliga, como planteo deductivo, a tomar como punto de partida la idea de que el Universo inicial tenía treinta y seis dimensiones, luego por un proceso de compactación desconocido pasó a
  • 11. tener diez que también se compactaron en seis y finalmente sólo cuatro son conocidas por la mente humana. Y a partir de esta aceptación se derivan otras afirmaciones igualmente sorprendentes. A principios de 1988 el físico inglés Paul C.W. Davies y el periodista científico Julian Brown de la BBC, entrevistaron a varios físicos partidarios de la teoría de supercuerdas y a otros fuertes opositores a esta. La crítica más fuerte la hizo el físico de partículas norteamericano Sheldon Glaswow quien - entre otras afirmaciones - señaló que esta teoría “era el resultado de la desocupación de algunos físicos frente al problema de la paralización de recursos financieros dedicados a la investigación experimental” y agregó además que era muy cauteloso para no permitir que en la Cátedra de Física de la Universidad de Harward penetraran ideas “naive”, “tan contagiosas como el SIDA” a las que eran afectos algunos “ideólogos” de las supercuerdas (en una alusión directa a los físicos del Instituto Tecnológico de California (Caltech), en la cual enseña John Schwrz. Sin embargo, dejando de lado el aspecto sarcástico envuelto en la crítica, interesa rescatar algunas de las ideas de otro fuerte opositor, el físico norteamericano de partículas Richard Feymann quien plantea estas observaciones: 1.- “La elaboración teórica en la física está degenerándose” y en particular “la teoría de supercuerdas carece de sentido”. Cuando una idea no calza con los experimentos se debe desechar, pero no ocurre así con esta teoría, que se arregla para que luego con explicaciones “a posteriori se cocina una explicación”. 2.- Si se utiliza un método para que ofrezca seis dimensiones ocultas, porque, no, por ejemplo “siete”; eso significa falta de rigor matemático. 3.- Si hay un “gran principio fundamental debajo de todo”, como plantea la teoría, debe demostrarse empíricamente; si no siquiera debe formularse, eso ya no es física, pero cada quien es libre de hacer lo que desee.... 4.- En la física teórica la idea es probarse a uno mismo, en el menor tiempo posible que una teoría es errada; pero aquí de lo que se trata es de tomarse toda la libertad para reacomodar las explicaciones cuando las pruebas no confirman los supuestos teóricos. 5.- El hecho de que la teoría permita dejar de lado el problema de resultados infinitos, cuando se trata de unificar las otras fuerzas con la gravedad, y que ha sido tomado como “prueba de la verdad de la teoría”, no es suficiente, porque hay muchas y no una sola forma de obtener esos resultados. 6.- En cualquier rama de los conocimientos físicos bien establecidos, en los que la teoría se confirma con la experiencia es posible hacer “predicciones de carácter local”; pero en el caso del inicio del Universo no es posible entenderlo en su totalidad, aplicando todas las leyes conocidas, porque la cosmología debe agregar algo que no está teorizado y comprobado: ¿cómo comenzó todo?. 7.- La razón de lo anterior es porque quizá las leyes de la física son incompletas, o quizá porque las leyes de la física cambian con el tiempo; que la fuerza de gravedad - por ejemplo - posea como propiedad que el inverso del cuadrado de la distancia (ley de Newton) no sea inalterable, sino que se aumenta en razón de como operaba desde el inicio del Universo. 8.- Es posible que todo el conocimiento físico debe completarse con algún planteamiento que permita conocer como comenzó el Universo, pero eso es un aspecto externo a las leyes de la física. Y bien puede ser que las leyes conocidas simplemente sean “incompletas” o estén parcialmente formuladas; pero lo cierto es que si se las formule para que sean utilizables en todo tiempo con la historia del Universo, no sea necesario, entonces, agregar “ningún planteamiento externo”. 9.- Uno de los problemas que más confusión causan es la aplicación de planteamientos matemáticos para referirse a las cosas reales, al Universo, por ejemplo. Y este problema es que al referirse a relaciones matemáticas que se comprueban mediante la física, aflora una duda: ¿existen “realmente estas relaciones matemáticas” y de ser así, en dónde?
  • 12. La física describe las leyes que rigen el Universo: observa, analiza y predice los fenómenos que se producen en el mismo. La matemática que enmarca, con su lenguaje propio, las construcciones mentales y analiza sus relaciones, pero sin interés aparente por los objetos y los fenómenos del mundo observable. Pero no siempre se ha dado esa tajante división entre física y matemática. A partir de Galileo, la matemática ha constituido el lenguaje de la física. Más aún. Desde el siglo XVII y hasta el siglo pasado, una y otra ciencia han progresado de la mano. Newton, Leibniz, Euler, Lagrange, Hamilton y Gauss entre otros, hicieron importantes contribuciones en física y en matemáticas. Newton, por ejemplo, inventó el análisis con el fin de disponer de un instrumento adecuado para describir el movimiento de los cuerpos. Pero, mediado el siglo XIX, las matemáticas se refugian cada vez más en la abstracción pura, y las dos ciencias empiezan a evolucionar por caminos separados. En el primer tercio del siglo XX aparecen dos grandes teorías físicas: la relatividad y la mecánica cuántica. Ninguna de las dos precisó crear un andamiaje matemático para su descripción. Se sirvieron de estructuras geométricas preexistentes. La teoría de la relatividad se apoyó en el cálculo tensorial; la física cuántica, en la teoría de los espacios de Hilbert. Pese a su origen puramente abstracto, la aplicación de estas matemáticas dio lugar a innumerables predicciones, que se observaron luego en la naturaleza. Se vino siguiendo en ese proceder hasta los años ochenta, en que surge una nueva interrelación, atisbada, sin embargo, ya en los años cuarenta, en los albores de la teoría cuántica de campos. El giro consistirá en que las estructuras del lenguaje de las teorías cuánticas de campos pueden generar y desarrollar nuevos aspectos de la matemática. La topología será la rama principalmente implicada, y corresponderá a las teorías cuánticas de campos topológicas el papel protagonista. La topología estudia propiedades globales de los conjuntos de puntos que son invariantes bajo deformaciones continuas. Ahora bien, las leyes de la física se definen en un espacio y un tiempo continuos. La física debe recurrir, pues, a un sustrato similar a la topología. Sin embargo, las leyes de la física suelen tener un carácter local, que se contrapone al carácter global de las propiedades topológicas. Parece, por tanto, sorprendente cualquier relación entre la física y la topología. Pero la hay. El origen de esa relación se inicia en 1959, cuando Yakir Aharanov y David Bohm propusieron un experimento del que se deduce que las propiedades globales del espacio son importantes a la hora de describir procesos de naturaleza cuántica (que desde su observación experimental en 1960 por R.G.Chambers se denomina efecto Abaranov-Bohm) que no tenía análogo en la física clásica. Considérese la situación en que un haz de electrones se bifurca, pasando por ambos lados de un solenoide perpendicular al plano donde esas partículas se propongan, e incide sobre una pantalla. Comparemos las señales producidas por los electrones al colisionar con la pantalla, llamadas franjas de interferencia, cuando por el solenoide circula una corriente eléctrica y cuando no. Observaremos que se produce un desplazamiento de las franjas de interferencia cuando se conecta el solenoide. La física clásica carece de explicación para el efecto Aharanov-Bohm. Ocurre que, si el solenoide es muy largo, crea un flujo de campo magnético a lo largo de la figura, de suerte tal que el campo eléctrico y el magnético son nulos en la zona por donde se propagan los electrones. De acuerdo con las ecuaciones de Maxwell, las ecuaciones clásicas del electromagnetismo, si ambos campos son nulos, las partículas cargadas -los electrones portan carga negativa- no sufren ningún efecto. Afirmación que se ve desmentida por la observación experimental. Para explicar el efecto Aharanov-Bohm hemos de acudir a la física cuántica. Del efecto Aharanov-Bohm se obtienen dos conclusiones que marcan la pausa de la relación entre física cuántica y topología. Por un lado, la conveniencia de generalizar conceptos físicos en situaciones donde la topología del espacio no es sencilla: dicho con precisión técnica, el potencial electromagnético corresponde a una conexión de un fibrado principal. Por otro lado, la física cuántica conduce a consecuencias observables gracias a las característica topológicas del espacio; para un flujo magnético dado, el desplazamiento de las
  • 13. franjas de interferencia en el efecto Aharanov-Bohm es independiente de la extensión de la zona excluida, siempre que ésta no sea nula, o lo que es lo mismo, la topología del espacio es la responsable de que se observe dicho desplazamiento. Tras el descubrimiento del efecto Aharanov-Bohm, la incidencia de la topología y de la geometría diferencial en el avance de la física ha sido determinante, desde los monopolos magnéticos hasta la teoría de cuerdas. El modelo estándar de la física que describe tres de las interacciones fundamentales de la naturaleza -fuerte, débil y electromagnética- está formulado en términos de “teoría de aforo”, una generalización del electromagnetismo. Las teorías de aforo generalizan la simetría de aforo antes expuesta. Esta generalización asocia un grupo a dicha simetría. La cuarta de las fuerzas fundamentales, la interacción gravitatoria, se ha resistido todavía a una descripción cuántica. La formulación clásica de la gravedad puede entenderse también como una teoría de aforo. Pero su formulación cuántica constituye uno de los grandes problemas a los que se enfrenta la física teórica. Para resolverlo se han abierto dos vías de investigación: a) la revisión de los métodos de estudio de la teoría cuántica de campos , b) la profundización del estudio de las teorías de cuerdas y de supercuerdas. Si la solución se hallara escondida en la segunda vía, tendríamos un marco unificado de las cuatro interacciones fundamentales. Quizá la raíz última de la dificultad estriba en que no se dispone de las estructuras matemáticas adecuadas. Hemos insistido en el protagonismo desempeñado por las teorías cuánticas de campos topológicas en la nueva relación entre la física y las matemáticas. El desarrollo de la física teórica había venido utilizando el lenguaje de una matemática preexistente. Este lenguaje había permitido deducir consecuencias cuya verificación experimental instó el diseño de grandes experimentos, a través de los cuales, a su vez, emergieron y crecieron muchas disciplinas dentro de la física y de la ingeniería. En la década de los ochenta se cambian los papeles: las teorías cuánticas de campos topológicas (física) crean un lenguaje que permite obtener muchas consecuencias en el marco de la topología ( matemática). Este lenguaje comienza a denominarse “matemáticas teóricas”. La demostración rigurosa de las consecuencias que origina constituye al análogo a la verificación experimental aludido anteriormente. El desarrollo ulterior de otras disciplinas de la física y de la ingeniería se corresponderá con el desarrollo que se produzca en las matemáticas encaminado a dotar al nuevo formalismo del rigor adecuado. Aunque se está en el comienzo de esta nueva forma de evolución, llegan ya los primeros resultados en tal dirección. Quizás en el futuro habrá un nuevo intercambio de papeles, y el nuevo lenguaje matemático, construido a partir de la abstracción física, sea el marco adecuado no sólo para establecer con rigor la teoría cuántica de campos, sino también para establecer los fundamentos de las teorías de cuerdas o de la teoría cuántica de la gravedad. Cualquier adelanto en esos dominios supondría un gran avance en el estudio de la unificación de las cuatro interacciones fundamentales. 1) Nació en un estado de once dimensiones en el que no se distinguirían fuerza y materia, algo así como un “estado puro de energía uncadimensional”. 2) Al disiparse, algunas de las dimensiones se plegaron sobre sí mismas creando unas estructuras que llamamos materia: “las partículas” y otras que serían las manifestaciones visibles de la geometría subyacente: las fuerzas de la naturaleza: “las ondas”. 3) Para que la heptasfera se rompiera y revelara las diez dimensiones espaciales se requirió de una energía mayor que la que podría exhibir la gran unificación de fuerzas. 4) Se requirió la colosal energía de la propia creación. HACIA LA TEORÍA CUÁNTICA DE CAMPOS La física describe las leyes que rigen el Universo: observa, analiza y predice los fenómenos que se producen
  • 14. en el mismo, pero precisa, de la matemática que enmarca con su lenguaje propio las construcciones mentales que prevén los cosmólogos y analiza sus relaciones, pero sin interesarse por los objetos y los fenómenos del mundo físico, porque ese mismo lenguaje matemático puede emplearse bien para describir un fenómeno observado, bajo características conocidas; o bien para describir un fenómeno hipotético pero con características muy diferentes. A partir de Galileo, la matemática ha constituido el lenguaje de la física. Más aún. Desde el siglo XVII y hasta el siglo pasado, una y otra ciencia han progresado de la mano. Newton, Leibniz, Euler, Lagrange, Hamilton y Gauss entre otros, hicieron importantes contribuciones en física y en matemáticas. Newton, por ejemplo, inventó el análisis con el fin de disponer de un instrumento adecuado para describir el movimiento de los cuerpos. Pero, mediado el siglo XIX, las matemáticas se refugian cada vez más en la abstracción pura, y las dos ciencias empiezan a evolucionar por caminos separados. En el primer tercio del siglo XX aparecen dos grandes teorías físicas: la relatividad y la mecánica cuántica. Ninguna de las dos precisó crear un andamiaje matemático para su descripción. Se sirvieron de estructuras geométricas preexistentes. La teoría de la relatividad se apoyó en el cálculo tensorial; la física cuántica, en la teoría de los espacios de Hilbert. Pese a su origen puramente abstracto, la aplicación de estas matemáticas dio lugar a innumerables predicciones, que se observaron luego en la naturaleza. Se vino siguiendo en ese proceder hasta los años ochenta, en que surge una nueva interrelación, atisbada, sin embargo, ya en los años cuarenta, en los albores de la teoría cuántica de campos. El giro consistirá en que las estructuras del lenguaje de las teorías cuánticas de campos pueden generar y desarrollar nuevos aspectos de la matemática. La topología será la rama principalmente implicada, y corresponderá a las teorías cuánticas de campos topológicas el papel protagonista. La topología estudia propiedades globales de los conjuntos de puntos que son invariantes bajo deformaciones continuas. Ahora bien, las leyes de la física se definen en un espacio y un tiempo continuos. La física debe recurrir, pues, a un sustrato similar a la topología. Sin embargo, las leyes de la física suelen tener un carácter local, que se contrapone al carácter global de las propiedades topológicas. Del efecto Abharanov-Bohm se obtienen dos conclusiones que marcan la pausa de la relación entre física cuántica y topología. Por un lado, la conveniencia de generalizar conceptos físicos en situaciones donde la topología del espacio no es sencilla: dicho con precisión técnica, el potencial electromagnético corresponde a una conexión de un fibrado principal. Por otro lado, la física cuántica conduce a consecuencias observables gracias a las característica topológicas del espacio; para un flujo magnético dado, el desplazamiento de las franjas de interferencia en el efecto Abharanov-Bohm es independiente de la extensión de la zona excluida, siempre que ésta no sea nula, o lo que es lo mismo, la topología del espacio es la responsable de que se observe dicho desplazamiento. Tras el descubrimiento del efecto Abharanov-Bohm, la incidencia de la topología y de la geometría diferencial en el avance de la física ha sido determinante, desde los monopolos magnéticos hasta la teoría de cuerdas. El modelo estándar de la física que describe tres de las interacciones fundamentales de la naturaleza -fuerte, débil y electromagnética- está formulado en términos de “teoría de aforo”, una generalización del electromagnetismo. Las teorías de aforo generalizan la simetría de aforo antes expuesta. Esta generalización asocia un grupo a dicha simetría. La cuarta de las fuerzas fundamentales, la interacción gravitatoria, se ha resistido todavía a una descripción cuántica ( aspecto que se inicia fuertemente en el Tercer Milenio ) . La formulación clásica de la gravedad puede entenderse también como una teoría de aforo. Pero su formulación cuántica constituye uno de los grandes problemas a los que se enfrenta la física teórica. Para resolverlo se han abierto dos vías de investigación: la revisión de los métodos de estudio de la teoría cuántica de campos y la profundización del estudio de las teorías de cuerdas y de supercuerdas. Si la solución se hallara escondida en la segunda vía, tendríamos un marco unificado de las cuatro interacciones fundamentales. Quizá la raíz última de la
  • 15. dificultad estriba en que no se dispone de las estructuras matemáticas adecuadas. Aunque se está en el comienzo de esta nueva forma de evolución, llegan ya los primeros resultados en tal dirección. Quizás en el futuro habrá un nuevo intercambio de papeles, y el nuevo lenguaje matemático, construido a partir de la abstracción física, sea el marco adecuado no sólo para establecer con rigor la teoría cuántica de campos, sino también para establecer los fundamentos de las teorías de cuerdas o de la teoría cuántica de la gravedad. Cualquier adelanto en esos dominios supondría un gran avance en el estudio de la unificación de las cuatro interacciones fundamentales y esto es de primordial importancia para entender cómo se inicia nuestro Universo. Ha de advertirse-sin embargo-que conforme los físicos se adentren en este mundo, la cosmología cuántica se irá haciendo mas y mas lejana al lego e incluso a los propios físicos acostumbrados a la visión, al lenguaje y al rigor de la física clásica ,que apenas ha logrado asimilar los rudimentos de la relatividad y la cuántica. . A continuación se examina el estado de situación de la búsqueda por vía de la Teoría de Cuerdas. NUEVA DUALIDAD A inicios de la década d los 90, bajo examen los físicos echaron las campanas al vuelo, cuando la “teoría de cuerdas” ganó predicamento en su calidad de candidata a TOE. Los físicos la habían elaborado a partir de la idea de que los objetos más elementales del Universo son unas cuerdas inimaginablemente finísimas cuyas ondulaciones generan todas las partículas y fuerzas del Universo. Estos bucles o segmentos de cuerda miden unos 10-33 centímetros de largo y vibran, como las cuerdas de un violín, en muchos modos diferentes. A cada modo vibracional le corresponde una energía fija, razón por la cual, según las leyes de la mecánica cuántica, cabe considerarlos partículas. Pero la teoría de cuerdas pronto se topó con barreras matemáticas: se fragmentó en cinco teorías competidoras. Una peculiar simetría nueva, la dualidad, va haciendo que las diferentes cuerdas se entrelacen. La dualidad está redefiniendo la idea que los físicos tienen de qué es una partícula fundamental, o cuerda. Ahora –de acuerdo con las formulaciones teóricas - parece que los objetos elementales están hechos de las mismas partículas que crean. Uno de los mas conspicuos físicos cuánticos que en esa época se consideraba el más representativo es Eddy Witten , físico y matemático cuántico norteamericano, una “superestrella “ de la física en la década de los noventa ,quien no sólo cree que la dualidad nos llevará a la TOE (Teoría del Todo) , sino que podría además aclarar por qué el Universo es como es. A criterio de Witten: “Nos encaminamos hacia una explicación de la mecánica cuántica” y no se pueden oír muchas voces críticas: la complicación matemática que encierra la teoría de cuerdas ha dejado fuera del ruedo a la mayoría de físicos y matemáticos” . En efecto , al propio tiempo, el mundo que emerge de la dualidad se está volviendo aún más raro. Las cuerdas se convierten con facilidad en agujeros negros y viceversa; dimensiones nuevas se amplifican en diferentes dominios; y no sólo fluctúan cuerdas por los caminos del Universo, sino también burbujas y otras membranas. La multitud de conexiones, creen los investigadores, apunta a una entidad más profunda. -la TOE- que -se presume - lo explicaría todo”. Aunque inicialmente Witten , quien es periodista político además, y actualmente enseña en el Instituto de Física Avanzada de Princeton, formula una teoría de cuerdas, buscando reunir las diversas formulaciones existentes en una sola, que denomina Teoría M , que significaría que las cuerdas pueden ser solo cuerdas, pero también Membranas ( comúnmente llamadas Branas ) que obedecerían a una fuerza superpoderosa (TOE) . La Teoría M ha sido objeto de mucho trabajo teórico, pero igualmente de mucha incomprensión. Combina en una sola formulación teórica nada menos que todas las teorías anteriores y simultaneas en el tiempo relacionadas con las nociones iniciales de la teoría de cuerdas, que luego se transforma en teoría de supercuerdas y en teoría de supergravedad, imaginadas en once dimensiones. La palabra “dual” -que está desplazando rápidamente a “súper”- tiene para los físicos muchas connotaciones diferentes. A grandes rasgos, se dice que dos teorías son duales si, aparentemente disímiles, aportan iguales
  • 16. predicciones físicas. Por ejemplo, si se intercambian todas las magnitudes eléctricas y magnéticas de las ecuaciones electromagnéticas de Maxwell, se obtiene, nominalmente una teoría distinta. Pero si se admite que, además de las cargas eléctricas, hay en el mundo cargas magnéticas (como un polo norte aislado de una barra iman-polo norte aislado de una barra imantada), las dos teorías resultan ser exactamente la misma, o duales. Más concretamente, la dualidad hace que sean intercambiables los objetos elementales y los compuestos: que una partícula u otra entidad, sea fundamental o conste de entidades aún más fundamentales depende del punto de vista. Cada perspectiva acaba por dar los mismos resultados físicos. El concepto de dualidad ha salido de las teorías de campo, pero, la “dualidad es mucho más natural en teorías de cuerdas”. Más versátil, también. La dualidad puede unir cuerdas de tipos diferentes, existentes en dimensiones diferentes y en espacio-tiempo de morfologías diferentes. Gracias a estos logros, la teoría de cuerdas está superando sus limitaciones y elevándose a la categoría de TOE. En las fases precoces de su evolución, la teoría de cuerdas había fallado en su afán por devenir teoría unificada debido a los muchos tipos de cuerdas que se proponían y la embarazosa multiplicidad de respuestas que daba. Esta abundancia tiene su fuente en otra peculiaridad de la teoría de cuerdas: sólo es coherente si las cuerdas habitan originalmente un espacio-tiempo de 10 dimensiones. Por desgracia para los teóricos de las cuerdas, las seis dimensiones extra se pueden enrollar de múltiples maneras diferentes. Cada uno de esos espacios comprimidos ofrece una solución diferente para la teoría de cuerdas, con una imagen propia del mundo tetradimensional. Un tipo de dualidad, la simetría especular, encontrada a finales de los años ochenta ha ayudado a aminorar el problema mediante la fusión de algunas soluciones alternativas. La simetría especular descubrió que las cuerdas de dos espacios enrollados y diferentes ofrecen a veces las mismas partículas. El tamaño al que se encoge una dimensión es bastante similar en la teoría de cuerdas, a otro parámetro: la intensidad con que interaccionan las partículas. Así como los espacios grandes pueden tener la misma física que los pequeños, quizás una teoría de cuerdas con un acoplamiento grande podría dar los mismos resultados que otra que tenga uno pequeño. Esta conjetura relacionaba las teorías de cuerdas de manera análoga a como la cualidad actuaba en la teoría de campos. Además, de lejos, las cuerdas parecen partículas; de ahí que la dualidad en la teoría de cuerdas comporte la dualidad en la teoría de campos, y viceversa. Cada vez que se ha puesto a prueba la dualidad en uno y otro caso, la ha pasado brillantemente y ha servido para acercar más los dos dominios. En el evento de que los esfuerzos de búsqueda de Toe dentro de la Teoría de Cuerdas, en su versión más avanzada, no rinda los resultados esperados, se abre otra vía de búsqueda con las Teorías de Gravitación Cuántica. GRAVITACIÓN CUÁNTICA La gravitación cuántica versa sobre el problema del espacio y el tiempo. Con la relatividad general, Einstein nos proporcionó no sólo una teoría de la gravitación, sino una teoría de la naturaleza del espacio y el tiempo -una teoría que echó abajo la concepción newtoniana anterior-. El problema de la gravitación cuántica es cómo combinar la comprensión del espacio y el tiempo que nos transporten más allá de lo que nos ha enseñado la teoría de la relatividad. Pero, yendo aún más allá, una teoría cuántica de la gravedad debe ser una teoría cosmológica. Como tal, debe también decirnos cómo describir la totalidad del Universo desde el punto de vista de los observadores que viven en él -pues por definición no hay observadores fuera del Universo-. Esto conduce directamente a las principales cuestiones con las que nos estamos debatiendo, porque parece muy difícil saber cómo podría extenderse la teoría cuántica de átomos y moléculas a una teoría del Universo en su totalidad. Como nos enseñaron Bohr y Heisenberg, la teoría cuántica parece tener sentido sólo cuando se entiende como la
  • 17. descripción de algo pequeño y aislado del observador -el observador está en el exterior-. Por esta razón, la fusión de la teoría cuántica y la relatividad en una única teoría debe también afectar nuestra comprensión de la teoría cuántica. Más generalmente, para resolver el problema de la gravedad cuántica tendremos que dar con una buena respuesta a la siguiente cuestión: ¿cómo podemos nosotros, como observadores que vivimos dentro del Universo, elaborar una descripción completa y objetiva del mismo? Según el físico de partículas norteamericano Lee Smolin : “La mayor parte del trabajo científico se ha centrado en el problema de la gravedad cuántica problema, especialmente única área de la física que conozco donde uno puede tratar cada día con cuestiones filosóficas profundas a la vez que se dedica al oficio propio del físico teórico, que es hacer cálculos para intentar hacer predicciones sobre la naturaleza a partir de nuestras representaciones teóricas. También me gusta el hecho de que uno debe tener un amplio conocimiento de muchas cosas diferentes para meditar sobre este problema. Por ejemplo, es probable que la gravedad cuántica sea relevante en la interpretación de datos astronómicos, y también es probable que la nueva teoría que estamos intentando construir haga uso de nuevas ideas y estructuras matemáticas que no hemos hecho sino comenzar a descubrir. Así pues, aunque prácticamente no he trabajado en otro problema durante casi veinte años, nunca me he aburrido”. Afirma Smolin: “ he estado trabajando con varios amigos en una nueva aproximación para combinar la relatividad con la mecánica cuántica. La hemos denominado “gravedad cuántica no perturbativa”. (también se la cita como Teoría de Bucles) que permite investigar las implicaciones de la fusión de la relatividad con la teoría cuántica de manera más profunda y exhaustiva. Todavía no hemos terminado, pero estamos haciendo progresos constantes, y recientemente hemos conseguido extraer de la teoría algunas predicciones experimentales. Las predicciones que hemos podido hacer hasta ahora no pueden ser comprobadas, porque se refieren a la geometría del espacio a escalas de un orden de magnitud veinte veces menor que el del núcleo atómico. Pero estamos más cerca de una solución del problema de la que nadie ha estado antes (y, tengo que decirlo, más cerca de lo que yo esperaba llegar en toda mi vida). En este trabajo hemos combinado una muy bella formulación de la teoría de la relatividad general de Einstein, descubierta por mi amigo Abhay Ashtekar, con algunas ideas sobre cómo construir una teoría cuántica de la geometría espaciotemporal en la que todo se describe en términos de bucles . Esto es, más que describir el mundo diciendo dónde está cada partícula, lo describimos en términos de entrelazamiento de bucles” . Esta teoría de “Enlace o entrelazamiento de bucles microdimensionales) fue propuesta por el físico cuántico italiano Carlos Rovelli , el físico uruguayo Rodolfo Gambini y por Lee Smolin y afirma que en la escala de Planck, que es veinte potencias de diez más pequeña que un núcleo atómico, el espacio aparece como una red o madeja de bucles discretos. De hecho, estos bucles son algo así como los átomos de los que estaría compuesto el espacio. La teoría afirma que las energías de los posibles estados de un átomo toman valores discretos- cuando se sondea la estructura del espacio a esta escala de Planck, y por tanto se encuentra teóricamente que los valores posibles del área de una superficie o del volumen de una región se miden también en unidades discretas. Las unidades discretas serian mas o menos las mismas que se utilizan en física clásica y que estamos acostumbrados a usar en la vida corriente, pero aquí serian “continuas” no separadas, fraccionadas, interrumpidas, lo que los físicos conocen como “ unidades discretas, término que también aplican a las unidades de tiempo). Lo que a nuestra escala macro parece una geometría espaciotemporal lisa es el resultado de un enorme número de estos bucles elementales entrelazados, igual que un trozo de tela aparentemente liso está en realidad compuesto de muchos hilos individuales, y por eso es que la imagen de los bucles es enteramente una descripción en términos de relaciones. No hay una geometría espacial preexistente, ni puntos de referencia fijados; todo es dinámico y relacional. Esta es la manera de entender la geometría del espacio que enseñaba Einstein (como algo relacional y dinámico) no fijado o dado a priori.
  • 18. De acuerdo con Smolin: “ Valiéndonos de esta imagen hemos podido trasladar esta idea a la teoría cuántica, porque, en efecto, la idea más importante que hay detrás de los avances de la física y la cosmología del siglo XX es que en el nivel fundamental las cosas no tienen propiedades intrínsecas; todas las propiedades son relaciones entre cosas. Esta es la idea básica de la teoría de la relatividad general de Einstein, pero su historia es más larga; se remonta como mínimo al siglo XVII con el filósofo Leibniz, que se oponía a las idea de Newton sobre el espacio y el tiempo, porque para Newton el espacio y el tiempo eran entidades absolutas, mientras que Leibniz quería entenderlos como aspectos de las relaciones entre cosas. Para mí, esta lucha entre quienes quieren un mundo hecho de entidades absolutas y quienes quieren un mundo hecho sólo de relaciones es un tema clave en la historia de la física moderna. En esto no soy imparcial. Pienso que Leibniz tenía razón, y que lo que está sucediendo en la ciencia de hoy puede contemplarse como la victoria de los relacionistas” . Y agrega: “ En efecto, en los últimos años me he dado cuenta de que el punto de vista relacional puede inspirar el tratamiento de otros problemas de la física y la astronomía, entre ellos el problema fundamental de la física de partículas, que es dar cuenta de todas las masas y cargas de las distintas partículas elementales. He llegado a la conclusión de que este problema está conectado también con dos cuestiones básicas sobre las que la gente se ha estado interrogando durante años. La primera es la siguiente: ¿por que las leyes de la física y las condiciones del Universo son tales que hacen posible la existencia de seres vivos? La segunda cuestión está estrechamente relacionada con la primera: ¿por qué, después de tanto tiempo desde su formación, está el Universo tan lleno de estructuras? Más allá incluso del fenómeno de la vida, es un hecho singular que nuestro Universo parece haber evolucionado, más que hacia un estado uniforme y aburrido de equilibrio térmico, hacia un estado lleno de estructura y complejidad a virtualmente todas las escalas, de la subnuclear a la cosmológica”. El cuadro que resulta de la relatividad y la teoría cuántica , en las visiones de Smolin, Rovelli, Gambini entre otros muchos físicos que buscan cuantizar la teoría de la relatividad y buscan asomarse detrás del “ Muro de Plank” , es decir a lo que habría ocurrido antes del nacimiento o eclosión del Universo actual, es el de un mundo concebido como un mundo de relaciones. Así, el cuadro jerárquico newtoniano, en el que átomos con propiedades fijas y absolutas se mueven sobre un fondo fijo de espacio y tiempo, dejaría de ser cierto ,lo que no significa que el atomismo o el reduccionismo sean incorrectos, pero sí –en esta nueva propuesta , hay que entenderlos de una manera más sutil. La gravedad cuántica, afirma Smolin- “… hasta donde podemos decir, va aún más allá, pues nuestra descripción de la geometría del espaciotiempo como un tejido de bucles y nudos es una bella expresión matemática de la idea de que las propiedades de cualquier parte del mundo están determinadas por sus relaciones y su ligazón con el resto del mundo… y , a medida que desarrollábamos esta descripción, comencé también preguntarme: sería posible extender la filosofía básica subyacente a otros aspectos de la naturaleza, más allá de la simple descripción del espacio y el tiempo. Más concretamente, comencé a preguntarme: ¿ si el mundo como un todo podría entenderse de una manera más relacional que en el cuadro tradicional, en el que todo está determinado por leyes de la naturaleza fijas…? Para comprender la reflexión de Smolin hay que pasar del mundo real conocido a uno nuevo y es que solemos imaginar que las leyes de la naturaleza están fijadas, de una vez y para siempre, por algún principio matemático absoluto, y que gobiernan el devenir de los acontecimientos actuando al nivel de las partículas más pequeñas y fundamentales y es que hay buenas razones para creer que las fuerzas fundamentales deberían actuar sólo sobre las partículas elementales, pero en la física de partículas se asume también otra cosa: que hay mecanismos o principios cuyas leyes se expresan realmente en la naturaleza, pero que se aplican sólo a escalas increíblemente pequeñas, mucho menores que las del núcleo atómico. Concluye Smolin. “ Un ejemplo de tales mecanismos es lo que se llama “ruptura espontánea de simetría”. Dado que la elección de las leyes condiciona el Universo en su totalidad, comenzó a extrañarme que los mecanismos que seleccionan las leyes no estuviesen de algún modo influenciados por la historia o la estructura del Universo a muy gran escala. Pero, para mí, lo que constituye una auténtica bofetada a la idea de que la elección de las leyes que gobiernan la naturaleza está determinada sólo por mecanismos que actúan
  • 19. a las escalas más pequeñas es el fracaso espectacular de la teoría de supercuerdas” . LÍMITE: DETERMINISMO - INDETERMINISMO. Las reglas de la física cuántica lo dominan todo, pero sus efectos visibles dependen de la escala en que se haga - por ejemplo -un experimento. En el reino micro el comportamiento indeterminista gobierna. En el reino macro, desde una milésima de un milímetro en adelante, los efectos desaparecen y el comportamiento es como lo describe la física clásica: familiar y rutinario, pero que sucede cuando se mezclan el mundo de lo macro y el mundo del o micro. A eso alude ,justamente, el célebre experimento teorico conocido como “ Caja del gato de Schrödinger ” : en una caja hay un gato encerrado con una pastilla de cianuro que se activa por medio de un dispositivo gobernado por un único átomo radioactivo .Si este se desintegra mata al gato. Hay que entender de primero que la radiación sigue un proceso cuántico, esto es las reglas de la probabilidad; así es posible saber que el mecanismo se activará, pero no cuando lo hará. Si se abre la caja, de acuerdo con las reglas cuánticas el átomo estará en un estado de superposición ( se desintegra y/o no se desintegra). Pero al observarlo el efecto ya no es cuántico sino acorde con las reglas físicas clásicas, el átomo está desintegrado o no; por lo tanto el gato estará muerto o vivo; no en una situación intermedia. 1.- El Gato de Schorodinger : En 1935 Erwin Schrödinger propone que imaginemos un sistema integrado por una caja cerrada que contiene un gato y una botella con una sola partícula radiactiva con un 50% de probabilidades de desintegrarse en un tiempo dado . El sistema tiene –además-. un dispositivo que al desintegrarse la única partícula se desintegra a su vez , rompiendo la botella y causando la muerte del gato. Todo este sistema está sometido, a su vez, a las leyes cuánticas: así ninguno de los componentes (gato, partícula, botella) pueden separarse, están ligados entre ellos. La única forma de separar los componentes es hacer una observación ( medición) del sistema imaginado. Según la interpretación cuántica de Copenhague, en el gato subsisten dos estados a la vez: gato vivo y gato muerto, pero si abrimos el sistema para observar resulta que colapsa uno de los estados y por ellos nos encontraremos al gato vivo o al gato muerto (no los dos estados superpuestos. Y esto obedece según esta interpretación, al hecho de que la observación de los estados cuánticos entrelazados, obedecen a una propiedad cuántica llamada “superposición” de estado que existe probabilísticamente . Sin embargo al abrir el sistema basta la observación para que la función de onda colapse y el gato lo encontremos vivo o muerto ya no en estado de superposición probabilística. A ese celebre experimento se le había dado otra interpretación más asombros aun, debida al físico norteamericano Hugh Everett, quien en 1957 postula su teoría de los “Universos Paralelos” , que explica que a todos los eventos que se producen en nuestro Universo, corresponden eventos iguales pero distintos en comportamiento en otros universos paralelos. Consecuentemente, para la paradoja del Gato de Schorodinger ,Everett explica que en todo punto de la vida del gato hay ramificaciones que suceden en un universo, otras en otro universo y no pueden superponerse en un único Universo ( el nuestro que observamos) porque se da el fenómeno de la decoherencia cuántica. Para Everett hay un gato en estado vivo en el Universo X y un gato en estado muerto en el Universo B. El fenómeno de la decoherencia cuántica es , a su vez, una postulación teórica debida al propio Schorodinger y afirma que las partículas son tratadas como ondas que se comportan según la Ecuación de Schorodinger y el comportamiento de tales ondas de probabilidad es un comportamiento que se encuentra en contradicción con los postulados de la mecánica clásica dado que en esa rama de la física, las partículas no presentan fenómenos típicos de las ondas como la interferencia. Justo la Ecuación de Schorodinger busca explicar de qué manera las partículas cuánticas pueden conformar elementos macros que si se comportan de manera clásica y pueden ser medidos sin problema alguno. Aunque el experimento teorico del Gato de Schorodinger viola el sentido común hay muchos experimentos de este tipo que solo pueden explicarse por la “superposición de estados” (esto es por la indeterminación de acuerdo a las reglas familiares y rutinarias). De acuerdo con el argumento de Schrödinger, en todo momento - en la caja: átomo y gato están en estado superpuesto; pero al abrir la caja la situación cambia porque hay
  • 20. una intervención de parte del observador que entonces “congela la función de onda”. Ahora bien para Schrorödinger hay una transición entre lo que se observa al abrir la caja (operan las reglas de la física clásica) y entre lo que en realidad ocurre dentro de ella (operan las reglas de la física cuántica). Asimismo señala ,acudiendo a la Ecuacion que lleva su nombre, que hay una fase de transición entre uno y otro comportamiento, o lo que es lo mismo, entre una y otra escala. La pregunta es: ¿Qué es lo que causa la transición y a que escala sucede? .Este experimento hipotético y las elucubraciones de su autor fueron formulados en 1935; pero el experimento sobre el que hay innumerables formas de explicarlos en la literatura , se modifica en 1996 en la Oficina de Medidas del Gobierno Federal Norteamericano, en donde Christopher Monroe y David Wineland hicieron este experimento con estos pasos sucesivos: 1.-Confinaron un ion único (un átomo al que se removió el electrón; esto es un catión de berilio), lo congelaron a cero absoluto para poder controlarlo y lo apuntaron con un disparador bien calibrado de luz de láser (A) y lo dejaron en un estado de superposición interna calentándolo y enfriándolo sucesivamente. 2.- Luego apuntaron otra luz de láser (B) directo al ion y calibraron los efectos de ambos láser a una distancia de 11 veces su propio diámetro del cono de luz. 3.- Cada vez que se hizo una medición, la función de onda se colapsó al quedar el ion en uno de dos lugares diferentes: bajo el laser (A) o el láser (B). ¿ Que comprobó el experimento? : Que no hay un límite claro entre las fronteras de la física clásica y la física cuántica. Pero aunque impresionante el resultado la duda sigue. Si lo que impide ver el estado de superposición es la medición, cómo se puede obviar ésta para ratificar experimentalmente la tesis de Schorödinger ¿y cuál será entonces la barrera; y a qué distancia se encuentra? Para proseguir esta experiencia se está preparando un dispositivo aún más afinado y revolucionario: una computadora cuántica que no interfiera el proceso. Y de esta experiencia saldrán otras luces reveladoras sobre la forma en que nuestro cerebro percibe todo colapsado en su función de onda: por ejemplo, el lector percibe la tinta, el papel y el volumen que lee como si fuesen sólidos, pero no percibe los átomos, ni los espacios vacíos entre ellos, ni los constituyentes de los átomos, tampoco percibe los niveles inferiores de quarks, ni el campo F que los ordena, mucho menos percibe el nivel de información - que se teoriza - es el más bajo nivel de sostenimiento y mantenimiento de la materia. La pregunta aquí es porqué: ¿Dónde se encuentra la frontera y cuál es la dimensión que media (transición) entre lo que se percibe y los estados por debajo superpuestos? Más aún cuál es entonces la realidad: ¿La que percibimos o la que no percibimos? ¿o ambas? Y otra pregunta inevitable: ¿Por qué percibimos así? Una respuesta muy seria puede ser: porque al carecer de diferencias todo lo subatómico, la percepción sería tan aburrida que toda la materia con sus colores, formas, olores, matices y con sus transformaciones permanentes, pasaría a ser percibida monótonamente igual y entonces: ¿Qué vida sería esta? Pero surge otra pregunta inevitable. Si esto es cierto, entonces: ¿Qué o (¿quién?) ha dispuesto que fuese así...? Con un formalismo matemático preciso y con un éxito pragmático total, la mecánica cuántica sin embargo, ha mostrado una sorprendente fragilidad conceptual y una radical ausencia de imaginación pictórica. En la mecánica clásica, los conceptos parecen tener un correlato claro y preciso y su lenguaje, en paralelo al formalismo matemático subyacente, posibilita considerar que los cuerpos físicos se encuentran en el espacio-tiempo y, en él, pueden tanto describirse como explicarse los fenómenos al igual que predecir su comportamiento. La mecánica cuántica, en su concepción ortodoxa o de Copenhague, supone un radical cambio en lo que cabía considerar concepción "natural", intuitiva del mundo. Así, los objetos materiales, si bien ocupan un lugar en el espacio, resulta que en determinadas circunstancias ese lugar no es región alguna concreta. Las leyes por las que se gobiernan los objetos físicos ordinarios dejan de ser válidas cuando esos objetos se utilizan como instrumentos de observación o medida; en otras palabras, el observador interviene de modo decisivo en aquello que observa. El azar no es algo ligado al conocimiento o limitación epistémica humana,
  • 21. sino que es un elemento intrínseco a la naturaleza, por lo cual el conocimiento de ésta ha de ser básicamente probabilístico. Frente a la concepción ortodoxa se han ido alzando líneas heterodoxas que pretenden la formulación de una mecánica cuántica que dé cuenta de tales éxitos, de todos los fenómenos subatómicos conocidos, y posibilite un cuadro en el cual no se tengan consecuencias como las antes señaladas. Es decir, que se tenga un cuadro en el cual se sustituya la concepción probabilística y subjetiva por una concepción causal y determinista. En línea con Schrödinger, fue Bohmn uno de los pioneros en intentar la elaboración de un cuadro formal más acorde con el clásico desde 1952. Einstein nunca aceptó los postulados de la Escuela de Copenhague; luego Schorodinger tampoco terminaría aceptándolos.. Más tarde fue David Bohm (1952) uno de los pioneros en tratar de elaborar un cuadro más determinista. Ahora, en 1996 el enfoque que el físico teórico inglés Peter R. Holland adopta supone una inversión conceptual para quien pretende que la mecánica clásica y la cuántica tienen la misma estructura teórica, lo cual no significa que una se reduzca a la otra. Pero este objetivo supone poder dar cuenta de una noción clave en la mecánica clásica -la trayectoria bien definida de una partícula- noción que realmente ha desaparecido en la cuántica. Desde la posición adoptada por Holland esa trayectoria no aparece como caso límite, sino como consecuencia de los tipos de movimiento que las partículas pueden realizar. Y ello porque se invierte el proceso usual por el que la dinámica de partículas se define: en lugar de introducir las trayectorias a través del espacio lagrangiano o el hamiltoniano con demostración posterior de que la ecuación correspondiente es consistente, ahora Holland define las trayectorias, directamente, como soluciones de la ecuación que lleva el nombre de Hamilton-Jacobi. En la concepción ortodoxa la dinámica de partículas es la que implica la evolución del campo en un espacio de configuración; pero desde la inversión actual que plantea Holland es la dinámica del campo en un espacio de configuración la que implica la dinámica de partículas. Esta inversión supone una nueva teoría del movimiento pero también, consecuente, una nueva concepción de la materia. Materia que pasa a tener un aspecto intrínseco por el cual las masas puntuales se mueven e interactúan no ya por potenciales preasignados de naturaleza independiente y externos a los puntos sobre lo que actúan, sino que se mueven e interactúan también por una energía interna. Y ello conlleva la afirmación de que esta inversión produce una síntesis de las características corpuscular y ondulatoria de la materia que ahora ya no son mutuamente excluyentes sino que existen simultáneamente (la nueva propuesta no es onda versus partícula, sino onda y partícula) Y esa existencia simultánea posibilita afirmar que se tiene una teoría causal determinista frente a la visión ortodoxa. Así, un sistema material, como el electrón, aparece como una partícula guiada por una onda cuántica que actúa como un campo, y bien entendido que la función de onda no se toma ya como mero constructo matemático sino como un ente físico. Desde este enfoque Holland realiza un estudio de los fenómenos clásicos para mostrar que las órbitas espaciotemporales de un conjunto de partículas reproducen las predicciones de la mecánica estadística cuántica clásica. Así ha desarrollado planteos teóricos para algunos de los principales fenómenos ligados a la mecánica cuántica: interferencia, efecto túnel, estabilidad de materia, espín 1/2, correlaciones no-locales y como algo novedoso, en este enfoque, la observación o la medición, no hace que la función de onda colapse. En consonancia con esta nueva interpretación que propone Holland, resulta que Dennis Gabor, (inventor de la holografía y premio Nobel), aseveró en 1962 que no puede realizarse observación alguna sin que al menos un fotón -la partícula básica, o cuanto, de la luz- dé en el objeto observado, pero en los últimos años, sin embargo, quienes se dedican al cada vez más sorprendente campo de la óptica cuántica han aprendido que esa afirmación es falsa. Ahora es posible determinar si un objeto está presente sin que lo toque ni un solo fotón, según han logrado determinar los físicos de la Universidad de Tel-Aviv, en Israel en 1993 y comprobado nuevamente los físicos de la Universidad de Ginebra, Suiza en 1997. Parece que una medición así, exenta de interacciones, es una contradicción: si no existe interacción, ¿cómo puede haber medición? En mecánica clásica, que estudia el movimiento de cualquier objeto que no sea
  • 22. demasiado pequeño, esa objeción es razonable; pero las cosas son distintas en mecánica cuántica, pues con un diseño experimental hábil se puede realmente medir sin que haya interacciones, lo que plantea nuevas y sorprendentes repercusiones para la lógica y las especulaciones filosóficas. 2.- Ordenador cuántico.- A medida que evoluciona la tecnología, aumenta la escala de integración y caben más transistores en el mismo espacio, así se fabrican microchips cada vez más pequeños, y es que, cuanto más pequeño es, mayor velocidad de proceso alcanza el chip. Sin embargo, no es factible técnicamente hacer los chips infinitamente pequeños, porque Hay un límite en el cual dejan de funcionar correctamente. Cuando se llega a la escala de nanómetros, los electrones se escapan de los canales por donde deben circular. A esto se le llama efecto túnel. Una partícula, si se encuentra con un obstáculo, no puede atravesarlo y rebota. Pero con los electrones, que son partículas cuánticas y se comportan como ondas, existe la posibilidad de que una parte de ellos pueda atravesar las paredes si son demasiado finas; de esta manera la señal puede pasar por canales donde no debería circular. Por ello, el chip deja de funcionar correctamente. En consecuencia, la computación digital tradicional no tardaría en llegar a su límite, puesto que para estas fechas ya se han llegado a escalas de sólo algunas decenas de nanómetros y surge entonces la necesidad de descubrir nuevas tecnologías y es ahí donde entra la computación cuántica, que se inicia en 1981, cuando el físico norteamericano Paul Benioff expuso su teoría para aprovechar las leyes cuánticas en una “Maquina de Turing” modificada. Ese mismo año Richard Feyman, otro físico norteamericano apoya la idea y la amplia y finalmente en 1985 el físico hebreo-britanico David Deutsch perfecciona la teorización . La idea básica consiste en que , en vez de trabajar a nivel de voltajes eléctricos, se trabaja a nivel de cuantos . En la computación digital, un bit sólo puede tomar dos valores: 0 ó 1. En cambio, en la computación cuántica, intervienen las leyes de la mecánica cuántica, y la partícula puede estar en superposición coherente: puede ser 0, 1 y puede ser 0 y 1 a la vez (dos estados ortogonales de una partícula subatómica). Eso permite que se puedan realizar varias operaciones a la vez, según el número de qubits. El "ordenador cuántico" puede realizar operaciones matemáticas con mucha mayor rapidez que los ordenadores disponibles. El principal rasgo distintivo del ordenador cuántico estriba en el uso del "paralelismo cuántico", que permite realizar una misma operación sobre varias entradas ("inputs") a la vez. Para poder aplicar esta propiedad tan sorprendente de la mecánica cuántica es necesario que el ordenador se encuentre completamente aislado, ya que la más mínima perturbación arruinaría el resultado. Además, un ordenador cuántico debe estar constituido por cubits (o bits cuánticos), que son sistemas con dos estados cuánticos distintos: 0 y 1. La dificultad para construir ese ingenio radica, pues, en encontrar un sistema formado por pequeñas entidades (cubits) que admitan una manipulación fácil y se hallen completamente aisladas del exterior. Todo el decenio de los ochenta, a partir de los postulados teóricos de Benioff, permiten comenzar a experimentar en muchos laboratorios públicos y privados,con relativo éxito . Asi, en de 1994, a modo de ejemplo, citemos que Patrick Zoller, de la Universidad de Innsbruck (Austria), y Juan I. Cirac, de la Universidad de Castilla (España) encontraron un sistema que cumple todos los requisitos para construir un ordenador cuántico. Los experimentos realizados a mediados de 1995 por el grupo de David Wineland, del Instituto Nacional de Pesos y Medidas de Estados Unidos, han confirmado las ideas, y ya hay varios grupos de experimentadores adaptando las ideas primordiales y modificándolas para perfeccionarlas, empeñados en construir ordenadores cuánticos siguiendo la propuesta teórica, pues esto permitirá abrir una poderosa puerta al conocimiento. En teoría pues, la computación cuántica es posible y la practica aunque limitada por ahora es muy prometedora. UNIVERSOS INFLACIONARIOS: En 1996, en dos publicaciones distintas los dos cosmólogos más combativos: Guth y Linde ofrecen sus propias versiones de la teoría inflacionaria que como se observa no son coincidentes: 1.- Teoria de la Inflacion.- El físico norteamericano A. Guth hizo un primer planteamiento sobre el Universo